2018-10-21
阅读量:
1738
交叉验证有哪些方法?适用场景是什么?
交叉验证有哪些方法?适用场景是什么?
1) 留出法
将原始数据集分为三部分:训练集、验证集和测试集,方法简单,用于训练的数据偏少
2)k 折交叉验证(k-fold cross validation)
k 折交叉验证通过对 k 个不同分组训练的结果进行平均来减少方差,因此模型的性能对数据的划分就不那么敏感。
数据量小的时候,k 可以设大一点,这样训练集占整体比例就比较大,不过同时训练的模型个数也增多。数据量大的时候,k 可以设小一点。
3)留一法
k 折交叉验证(k-fold cross validation)中当 k=m 即样本总数时,即为留一法。
这个方法用于训练的数据只比整体数据集少了一个样本,因此最接近原始样本的分布。
但是训练复杂度增加了,因为模型的数量与原始数据样本数量相同。一般在数据缺乏时使用。






评论(0)


暂无数据
推荐帖子
0条评论
0条评论
0条评论