深度学习笔记 —— 模型选择 + 过拟合和欠拟合

本文强调了关注泛化误差而非训练误差的重要性,指出验证数据应独立于训练数据,并警告不要用测试数据调整超参数。介绍了交叉验证的概念,虽然计算成本高但能提升模型性能。同时,讨论了模型容量与数据复杂度的关系,过大的模型可能导致过拟合。提出了模型选择的原则,简单数据对应低模型容量,复杂数据则需更高容量。最后,提到了超参数调优的策略,包括经验、手动调整和随机搜索。
摘要由CSDN通过智能技术生成

我们关心的是泛化误差,而非训练误差。这也给我们一定启示啊,光背题是行不通滴,要理解背后的本质和逻辑

Attention:验证数据一定不要和训练数据混在一起! 也不能用测试数据集来调超参数!

好处是尽可能地把数据作为训练数据集,坏处是代价高(因为要跑多次)。k越大,效果越好,但是k的选择一般要在能承受的计算成本之内。另外,这种方法适用的情况是没有足够多数据的时候

数据简单,应该选择比较低的模型容量,就会得到一个比较正常的结果;如果简单数据使用了很复杂的模型容量,就会出现过拟合。

模型容量低的时候,因为过于简单,所以难以拟合数据,造成训练误差和泛化误差比较高;随着模型容量的增加,理论上神经网络可以记住所有的数据,训练误差甚至能够降低为0,但这样也记住了大量的噪音,使得网络被无关的细节所困扰,泛化误差在降到一定程度后也因此会升高

我们通常会使用泛化误差和训练误差之间的gap来衡量模型过拟合和欠拟合的程度

如果参数值的选择范围很大的话,那么模型的容量就比较高;反之则低

 可以认为是模型复杂度等价于能够完美记住的一个数据集的最大容量

 二维输入的感知机不能完美分类四个点(解决不了异或问题)

 (了解一下即可~)

超参数的设计:

1.靠经验……

2.自己调

3.随机选取超参数的组合,把最好的组合选出来

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值