机器学习笔记(二)——模型评估与选择

本文详细介绍了机器学习中的模型评估与选择方法,包括经验误差与过拟合的概念,数据集划分的留出法、交叉验证法和自助法,以及性能度量如均方误差、错误率、查准率、查全率、P-R曲线、F1度量、ROC与AUC。此外,还讨论了代价敏感错误率和代价曲线,最后提到了比较检验中的假设检验在模型评估中的应用。
摘要由CSDN通过智能技术生成

一、经验误差与过拟合

        经验误差:一般地,我们吧学习器的实际预测输出与样本的真实输出之间的差异称为“误差”,学习器在训练集上的误差称为“训练误差”或“经验误差”,在新样本上的误差称为“泛化误差”。

        过拟合:当学习器把训练样本学得“太好”了的时候,很可能已经把训练样本自身的一些特点当作了所有潜在样本都会具有的一般性质,这样就会导致泛化性能下降。这种称为“过拟合”,反之称为“欠拟合”。

二、数据集的划分方法

1、留出法

     “留出法”直接将数据集D划分为两个互斥的集合,其中一个集合作为训练集S,另一个测试集T,即D=S∪T,S∩T=∅。在S上训练出模型后,用T来评估其测试误差,作为对泛化误差的估计。

        需值得注意的是,训练/测试集的划分要尽可能保持数据分布的一致性,避免因数据划分过程引入额外的偏差而对最终结果产生影响,例如在分类任务中至少要保证样本的类别比例相似。

        常见做法是将大约2/3~4/5的样本用于训练,剩余样本用于测试。

2、交叉验证法

        “交叉验证法”先将数据集D划分为k个大小相似的互斥子集,即D=D1∪D2∪...∪Dk,Di∪Dj=∅(i≠j)。每个子集Di都尽可能保持数据分布的一致性,即从D中通过分层采样得到。然后,每次用k-1个子集的并集,余下的那个子集作为测试集;这样就可获得k组训练/测试集,从而可进行k次训练和测试,最终返回的是这k个测试结果的均值。通常把交叉验证法称为“k折交叉验证法”。

        假定数据集D中包含m个样本,若令k=m,则得到了交叉验证法的一个特例:留一法。

3、自助法

        “自助法”直接以自助采样法为基础。给定包含m个样本的数据集D,我们对它进行采样产生数据集D':每次随机从D中挑选一个样本,将其拷贝放入D',然后再将该样本放回初始数据集D中,使得该样本在下次采样时仍有可能被采到;这个过程重复执行m次之后,我们就得到了包含m个样本的数据集D'。

4、总结

        自助法在数据集较小、难以有效划分训练/测试集时很有用。

        初始量足够时,留出法和交叉验证法更常用。

        数据集小且可以有效划分的时候留一法更有效。

三、性能度量

1、均方误差

        回归任务最常用的性能度量

                                             

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值