【机器学习 第2章 学习笔记】模型评估与选择

1.训练误差:学习器在训练集上的误差,也称“经验误差”

2.泛化误差:学习器在新样本上的误差

显然,我们的目标是得到在新样本上表现更好的学习器,即泛化误差要小

 

3.过拟合:学习器把训练样本学的太好了,导致泛化性能下降(学过头了。。。让我联想到有些人死读书,读死书,僵化,不懂得变通和举一反三)

   原因:学习能力过于强大,把一些不太一般的特性也学了进来

   针对措施:不好解决,是机器学习面临的关键障碍

4.欠拟合:就是连训练集都没学好,更别说泛化了(有点管中窥豹,盲人摸象的意思)。

   原因: 学习能力低下

   针对措施:比较容易克服,如决策树中的扩展分支、神经网络学习中增加训练轮数等。

 

二、模型评估方法

     不同的学习算法+不同的参数配置=不同的模型

     那么如何找出泛化误差最小的模型(就是我们理想中的模型)?

1.留出法

  把我们手上现有的数据集分成两个互斥的集合,用其中一个来作为训练集训练模型,用另一个来检验模型,测试误差,作为对泛化误差的估计

2.交叉验证法

 把数据集D划分为k个互斥子集,每次用k-1个子集去训练模型,留下一个子集来测试模型,特例“留一法”

3.自助法

 需注意几个概念:

验证集:模型评估与选择中用于评估测试的数据集

测试数据:学得的模型 在实际使用中遇到的数据

训练数据:划分为训练集和验证集

 

三、性能度量

 衡量模型泛化能力的评价标准

 

转载于:https://www.cnblogs.com/zhengchunhao/p/5486470.html

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值