机器学习 交叉验证的作用

   交叉验证(Cross validation),交叉验证用于防止模型过于复杂而引起的过拟合.有时亦称循环估计, 是一种统计学上将数据样本切割成较小子集的实用方法。于是可以先在一个子集上做分析, 而其它子集则用来做后续对此分析的确认及验证。 一开始的子集被称为训练集。而其它的子集则被称为验证集或测试集。交叉验证是一种评估统计分析、机器学习算法对独立于训练数据的数据集的泛化能力(generalize)。
   举例:
   问题描述:

如何在一些模型中选择一个最好的模型;避免数据浪费;
举例说明
1 多项式回归模型中 y = a_0 + a_1 x + a_2 x^2 + a_3 x^3 + …… + a_m x^m + \varepsilon. , 我们知道模型越复杂即m越高,拟合效果越好。但是未必是一个好的分类模型,因为模型过拟合了。那么如何确定m的值呢。
2 locally weighted regression中,τ值得确定。
3 SVM中参数C的确定。
交叉验证就是很好的用于这些问题,这些模型中参数寻优的问题。

如何交叉验证:
我这里主要介绍K交叉验证
1 将数据集分成K份(网上有说是将数据集分成测试训练两部分,然后将训练部分再分K份,我觉得这样仍然有大部分数据没用于模型训练造成数据浪费。)
2 对于每一个模型(拿多项式回归举例, m=2为一个模型,m=3为一个模型。。。我们主要就是寻找最好的m)
for j=1,2,…,k
将除第j份的所有数据作为训练集用于训练,得到训练参数。
将训练参数在第j份数据上进行测试,得到测试错误E(j);
3 经过第二步就得到了K个模型,和K个测试错误,将这K个错误求平均,就是该模型的estimated generalization error。
4 estimated generalization error最小的模型即为我们最优的模型,(例如发现m=3时平均错误最小)我们取这个模型再对所有数据进行训练,得到一个模型参数即为所求。
这样就避免了数据浪费,所有数据都有用于过训练。

参考:https://blog.csdn.net/qq_34424731/article/details/78119964

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值