[机器学习]模型评估与选择


参考资料:《机器学习》 周志华著

一.经验误差与过拟合

1.1基本概念

概念公式说明
错误率 E = a m E=\frac{a}{m} E=mam个样本中有a个样本分类错误
精度 1 − a m 1-\frac{a}{m} 1ma ( 1 − a m ) × 100 % (1-\frac{a}{m})\times100\% (1ma)×100%即“正确率”
误差学习器的实际输出与样本的真实输出之间的差异,即与“正确答案”差了多少
训练误差/经验误差学习器在训练集上的误差,即通过训练集训练后,再对该训练集进行分类的误差
泛化误差学习器通过训练集训练好了后,再在新样本上进行分类得到的误差

注:“误差”均指误差期望
显然,通过在训练集上进行训练,我们希望得到的是在学习器没有接触到过的新样本上泛化误差小的学习器。

概念说明
欠拟合学习器的学习能力低下,无法抽象出分类依据以至于分类标准与实际偏差太大
过拟合学习器的学习能力过于强大,除了抽象出了分类依据外,还将训练集的某些与分类无关的“特性”也当作分类标准而与实际有偏差

1.2导引

在现实任务中,我们往往有多种学习算计可供选择,甚至对同一个学习算法当使用的参数配置不同时,结果也会有差异。

任务
模型1
...
模型n
参数1
参数2
...
参数1
参数2
...

所以如何定性甚至定量评价不同模型之间的好坏呢?

	Q:直接再拿学习集没遇见过的样本进行测试得到泛化误差进行比较不就好了吗?

当然可以!前提是我们可以找到这样子的样本当作测试集。
任务开始,我们的手头会有确定数量的样本(秉着越多越好的原则,就当这些样本是我们能得到的最多数量了)。
那么对于这个有限的资源,显然样本集越大越好,但是留出来用来测试的测试集也不能太少。
所以如何确定样本集与测试集便是模型的评估方法所要讨论的内容之一了。

二.评估方法

2.1留出法

2.2交叉验证法

2.3自助法

2.4调参与最终模型

  • 1
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 1
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值