深度学习过程中测试准确率先上升后下降是为什么?

很典型的过拟合问题。

过拟合问题的表现:

在训练过程中的验证准确率前上升,后下降,即在验证集上的表现先好后差。

 造成过拟合的原因:

数据相对模型来说比较简单,即模型的表达能力过剩。在初始训练阶段,模型逐渐开始学习到一些信息,因而在验证集上的表现是提升的,在到达某一点后,模型接着训练则会更加的去关注一些细枝末节的东西,即模型表达更加多。但是这不一定适用于验证集,所以验证集的表现开始下降。

解决过拟合的方法:

1.early stop,既然模型在某一点时达到最优,那么就设置模型在最优点附近停止训练。对于early stop的策略有很多,比如验证准确率在N个epoch范围内波动很小,或训练损失在N个epoch范围内波动很小等都可以作为停止条件。

2.为模型增加惩罚项,即正则化。L1和L2正则化。

3.改变数据,使数据更加复杂,多变,适应模型,也能取得不错的效果。

在整个训练过程中,虽然说模型出现了过拟合,但是其在训练集上的损失还是趋于平稳的,并不会说因为过拟合而导致损失波动。(实验证明是这样的,我不太确定理论)

 

 

  • 6
    点赞
  • 24
    收藏
    觉得还不错? 一键收藏
  • 1
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值