深度学习 - 对过拟合和欠拟合问题的处理

我们以图像形式说明下欠拟合、正常拟合、过拟合的场景,左图为欠拟合,此时算法学习到的数据规律较弱,有较差的预测效果,中图为正常拟合的形态,模型能够兼顾预测效果和泛化能力,右图是过拟合的情形,此时模型对训练集有较好的预测效果,但是因为其过度拟合于训练数据,所以对未见过的数据集有较差的预测效果,也就是我们通常说的低泛化能力。

欠拟合问题

欠拟合问题易于解决,其基本方式有:      

[1]增加迭代次数,使用更多的数据喂养模型,使得模型有更强的拟合能力。      

[2]增加网络的深度和广度,增大神经网络的'容量',使得模型有更好的空间表示能力。

过拟合问题

在DNN中常用的解决过拟合方法有:

[1]早停策略。早停是指在使用交叉检验策略,每隔一定的训练次数观察训练集和验证集上数据的准确率,从而可以比较观察找到合适的训练次数,及时在下图红点出停止,防止网络过度拟合训练集。

[2]集成学习策略。用bagging的思路进行正则化,对原始的m个训练样本进行又放回的随机采样,从而可以可以使用有放回的方式构建N组m个样本(里面可以重复)数据集,然后让这N组数据去训练DNN,这样可以DNN往一个样本模式过度拟合,而能学习综合的样本特征,但是这样的方式会导致数据量增加,训练更耗时。

[3]Dropout策略。方法是在前后向传播算法每次迭代时随机隐藏一部分神经元不参与计算,并使用这些隐藏一部分数据后的网络去拟合一批数据,通过这种随机隐藏,来提升拟合限度,防止生成太拟合数据的函数式,但是这样方式需要有大量数据集来喂养,否则会导致欠拟合。      

[4]正则化方法是指在进行目标函数或代价函数优化时,在目标函数或代价函数后面加上一个正则项(代表模型复杂度,又可称为惩罚项),这样我们令损失函数尽量小时,也会同时会让后面正则项代表的模型复杂度尽量小,通过这样的限制来防止模型结果过于复杂,从而有更好的普适效果。          

如下式说明目标变为要找到使损失函数和正则项都小的参数。

 

  • 1
    点赞
  • 6
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
深度学习中的过拟合欠拟合是两个常见的问题过拟合指的是模型在训练集上表现很好,但在测试集上表现不佳的情况。它表示模型在训练时过度适应了训练数据的噪声和细节,导致在新数据上泛化能力较差。过拟合的表现通常是训练集上的损失函数较低,但测试集上的损失函数较高。 欠拟合指的是模型在训练集和测试集上都表现较差的情况,它表示模型无法很好地拟合训练数据。欠拟合的主要原因是模型的复杂度不足或者训练数据量不足。欠拟合的表现通常是训练集和测试集上的损失函数都较高。 解决过拟合的常用方法包括: 1. 增加更多的训练数据,以减少模型对于噪声和细节的依赖。 2. 使用正则化技术,如L1正则化、L2正则化等,通过限制模型参数的大小来减少过拟合。 3. 使用早停法(early stopping),即在验证集上监测模型性能,当性能不再提升时停止训练,避免过拟合。 4. 使用Dropout技术,在训练过程中随机丢弃部分节点,减少模型的过度适应。 5. 进行数据增强,如图片旋转、翻转等,生成更多的训练样本,增加模型的泛化能力。 解决欠拟合的常用方法包括: 1. 增加模型的复杂度,如增加网络层数、增加每层的神经元数量等,提升模型的表达能力。 2. 增加特征工程,通过引入更多的特征或变换已有特征来提高模型的性能。 3. 减少正则化力度或者移除正则化操作,以允许模型更好地拟合训练数据。 4. 增加训练轮数和学习率,使模型更充分地学习训练数据。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值