深度学习基础之过拟合、欠拟合问题和正则化

引自《统计学习方法》李航, 当假设空间含有不同复杂度(例如,不同的参数个数)的模型时,就要面临模型选择的问题。我们希望选择或学习一个合适的模型。如果在假设空间中存在’真’模型,那么所选的模型应该逼近真模型。 具体地,所选的模型要与真模型参数个数相同,所选的模型的参数向量与真模型的参数向量相近。

1. 过拟合

过拟合现象:模型对已知数据预测的很好,对于未知数据预测很差的现象(训练集效果好,在测试集和验证集效果差)。

背后的原理:如果一味的追求对训练数据的预测能力,所选的模型复杂度往往会比真模型的复杂度更高。(李航-统计学习方法的说法)

  从模型复杂度角度来说:模型过于复杂,把噪声数据也学习进去,导致模型泛化性能下降。

  从数据集角度来说:数据集规模相对于模型复杂度来说太,使得模型过度挖掘数据集中的特征。

解决过拟合常用方法

  1. 增加数据集;数据增强,扩充数据,生成对抗网络合成新数据。
  2. 正则化方法:BN和dropout
    1. 添加BN层,Bn在一定程度上能够提高模型泛化性。
    2. dropout,随机隐藏一些神经元,因此训练过程中不会每次都更新。
  3. 降低模型复杂度,可以通过减少网络层数,改用参数量更少的模型;
  4. 降低训练的轮数,(也叫early stopping,即在模型训练数据集迭代收敛之前停止迭代,来防止过拟合。)做法:每个epoch,记录最好的结果。当连续十个epoch,在测试集上的准确率没有提高,那就说明,模型可以截断了。
  5. 集成学习方法:把多个模型集成在一起,降低单一模型的过拟合风险。
  6. 交叉检验:这个有点复杂,几乎没用过,没有仔细了解。

2. 欠拟合

现象:无论还在训练集还是在测试集中,模型的效果都很差。

原因

  1. 模型过于简单;模型的学习能力较差;
  2. 提取的特征不好;当训练的数据中特征不足、现有特征与样本标签的相关性不强时,模型容易出现过拟合。

解决办法:

  1. 增加模型复杂度,如在线性模型中更改高此项为非线性模型;在神经网络中增加网络层数或者神经元个数。
  2. 增加新特征:可以考虑特征组合等特征工程工作。
  3. 如果损失函数中加了正则项,可以考虑减小正则项的系数 λ \lambda λ

3. 正则化

写在前边:什么是正则化,不太好理解;监督学习的两个基本策略:经验风险最小化和结构风险最小化;假设样本足够多,那么认为经验风险最小的模型就是最优的模型;当样本容量很小的时候,经验风险最小化学习到的效果未必很好,会产生过拟合的现象;而结构风险最小化(等价于正则化)就是为了防止过拟合而提出来的。

  正则化是结构风险最小化策略的实现,是在经验风险上加一个正则化项罚项。正则化项一般是模型复杂度的单调递增函数,模型越复杂,正则化值就越大。
正则化项一般有如下形式:

min ⁡ f ∈ F 1 N ∑ i = 1 N L ( y i , f ( x i ) ) + λ J ( f ) \min _{f \in \mathcal{F}} \frac{1}{N} \sum_{i=1}^{N} L\left(y_{i}, f\left(x_{i}\right)\right)+\lambda J(f) fFminN1i=1NL(yi,f(xi))+λJ(f)

其中第一项是经验项,第二项是正则化项。 λ \lambda λ为调整两者之间的系数。

  第一项的经验风险较小的模型可能较复杂(有多个非零参数),这时第二项的模型复杂度会较大。正则化的作用是选择经验风险与模型复杂度同时较小的模型。

参考:李航《统计学习方法》 p18;

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论
深度学习中的过拟合欠拟合是两个常见的问题过拟合指的是模型在训练集上表现很好,但在测试集上表现不佳的情况。它表示模型在训练时过度适应了训练数据的噪声和细节,导致在新数据上泛化能力较差。过拟合的表现通常是训练集上的损失函数较低,但测试集上的损失函数较高。 欠拟合指的是模型在训练集和测试集上都表现较差的情况,它表示模型无法很好地拟合训练数据。欠拟合的主要原因是模型的复杂度不足或者训练数据量不足。欠拟合的表现通常是训练集和测试集上的损失函数都较高。 解决过拟合的常用方法包括: 1. 增加更多的训练数据,以减少模型对于噪声和细节的依赖。 2. 使用正则化技术,如L1正则化、L2正则化等,通过限制模型参数的大小来减少过拟合。 3. 使用早停法(early stopping),即在验证集上监测模型性能,当性能不再提升时停止训练,避免过拟合。 4. 使用Dropout技术,在训练过程中随机丢弃部分节点,减少模型的过度适应。 5. 进行数据增强,如图片旋转、翻转等,生成更多的训练样本,增加模型的泛化能力。 解决欠拟合的常用方法包括: 1. 增加模型的复杂度,如增加网络层数、增加每层的神经元数量等,提升模型的表达能力。 2. 增加特征工程,通过引入更多的特征或变换已有特征来提高模型的性能。 3. 减少正则化力度或者移除正则化操作,以允许模型更好地拟合训练数据。 4. 增加训练轮数和学习率,使模型更充分地学习训练数据。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

hello689

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值