吴恩达机器学习第二章 学习笔记

吴恩达机器学习 第二章 模型评估与选择

2.1经验误差与过拟合

经验误差

m样本数量,Y样本正确结果,预测结果Y’——>错误a个

error rate:E=a/m 误差:|Y-Y’| accuracy=1-E

训练集上的误差称为“训练误差”或“经验误差”,新样本上的误差称为“泛化误差”

过拟合

把训练样本自身的一些特点当作所有潜在样本都具有的性质,泛化能力下降

欠拟合容易克服,而过拟合较为麻烦且无法彻底避免

2.2评估方法

通常可利用实验测试对泛化误差进行评估并做出选择,因此构造测试集。
数据集D产生训练集S和测试集T的方法
1.留出法:直接划分为两个互斥的集合。

注意:
1.尽可能保持分布的一致性,如分类问题可采用“分层采样”
2.若干次随机划分、重复进行试验评估,返回平均值作为留出法的结果
3.S通常为(2/3-4/5)D

2.交叉验证法: 分层取样得到k个互斥子集Di,每次取k-1个子集的并集为S,余下的为T,返回k次测试结果的均值,“k折交叉验证“。

为减小因样本划分不同而引入的差别,k折交叉验证常要随机使用不同的划分重复p次,”p折k次交叉验证“。
令k=m样本数,模型与D相近,计算开销大,”留一法“。

3.自助法:自助采样(有放回随机采样)生成测试集D‘,适用于数据集较小的情况。
4.调参与最终模型
对每种参数配置都训练出模型,可行性较低

常用做法:对每个参数选定范围和变化步长

区分:训练集&#x

  • 0
    点赞
  • 3
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值