周志华机器学习第二章总结及课后答案

2.1 经验误差与过拟合

通常我们把分类错误的样本总数的比例称为错误率(error rate),即如果在m个样本中有a个样本分类错误,则错误率E=a/m;相应的,1-a/m称为”精度”(accuracy),更一般的,我们把学习器的实际预测输出与样本的真实输出之间的差异称为“误差”,学习器在训练集上的误差称为“训练误差”或“经验误差”,在新样本上的误差称为“泛化误差”。

  • 过拟合(overfitting):当学习器把训练样本学得“太好了”的时候,很可能已经把训练样本自身的一些特点当作了所有潜在样本都会有的一般性质,这样就会导致泛化性能下降。相反则称为欠拟合(underfitting)
  • 注意:我们必须认识到过拟合是无法避免的,我们所能做的只是“缓解”,或者说减小其风险。关于这一点,可大致这样理解:机器学习面临的问题是NP难甚至更难,而有效的学习算法必然在多项式时间内运行完成,若可避免过拟合,则通过经验误差最小化就能获得最优解,这就意为着我们构造性的证明了“P=NP”,因此只要相信P不等于NP过拟合就不可避免。

2.2 评估方法

  • 留出法(hold-out):直接将数据集D划分为两个互斥的集合,其中一个集合作为训练集S,另一个作为测试集T,即
    注意:训练/测试集的划分要尽可能保持数据分布的一致性,避免因数据划分过程引入额外的偏差而对最终结果产生影响。如果实在不能保证数据分布的一致性,请参考我在深度学习中的笔记 2.3在不同的划分上进行训练并测试
  • 交叉验证法(cross validation):先将数据集D划分为k个大小相似的互斥子集,即
  • 待更新……
  • 1
    点赞
  • 3
    收藏
    觉得还不错? 一键收藏
  • 1
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值