机器学习复习2-模型评估与选择Part1

泛化误差

学习器在新样本上的误差称为“泛化误差”。

评估方法:

1.留出法

直接将数据集D划分为两个互斥的集合,一个作为训练集S,另一个作为测试集T。

分层采样:
保留类别比例的采样方式通常称为“分层采样”。

单次使用留出法得到的估计结果往往不够稳定可靠,在使用留出法时,一般采用若干次随机划分、重复进行实验评估后取平均值作为留出法的评估结果。

我们希望评估的是用D训练出的模型的性能,但留出法需划分训练/测试集,这会导致:若训练集S包含绝大部分样本,那么训练的模型更接近于用D训练的模型,但是测试集T会比较小,评估结果可能不够稳定准确;如果T多些样本,又会导致S与D差别更大,训练的模型可能与用D训练的模型存在差别,降低了评估结果的保真性。但这个问题没有完美的解决方案,常见做法是大约2/3~4/5的样本用于训练,其余用于测试。

2.交叉验证法

在这里插入图片描述
与留出法相似,将数据集D划分为k个子集同样存在多种划分方式。为减小因样本划分不同而引入的差别,k折交叉验证通常用随机使用不同的划分重复p次,最终的评估结果是这p次k折交叉验证结果的均值,常见的是“10次10折交叉验证”。

3.留一法(交叉验证法的特例)

将交叉验证中的k,设为样本的数量,这样划分子集的方式就唯一且固定了。
这使得,大部分情况下,留一法中被实际评估的模型与期望评估的用D训练出的模型很相似,评估结果往往被认为比较准确。但是数据量大时,训练非常多模型的计算量是难以忍受的,其次NFL原理对于实验评估方法留一法也是适用的,未必永远比其他评估方法准确。

4.自助法

留出法和交叉验证集法,必然会引入因训练样本规模不同而导致的估计偏差;留一法复杂度太高。
所以提出自助法,Bootstrapping,其以自助采样为基础。

自助采样=可重复采样=有放回采样。
在这里插入图片描述
自助法在数据集较小、难以有效划分训练/测试集时很有用;此外,自助法能从初始数据集中产生多个不同的训练集,这对集成学习等方法有很大的好处。可以参考我之前写的文章-集成学习。
但是自助法改变了初始数据集的分布,会引入估计偏差,所以初始数据量足够时,留出法和交叉验证法更为常用。

  • 2
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 1
    评论
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

Xu_Wave

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值