解决过拟合的一些方法


由于条件限制,比如数据不够丰富、不够代表性,你的模型很有可能出现过拟合。即你的模型试图去记住所有的训练数据,而不是学习数据的趋势。虽然数据增强的方法能缓解一些,但往往插值出来的数据仍然很局限。一般,我们有下面几个方法来从模型的角度来解决过拟合问题。

  • Early Stopping

随着训练的进行,你发现迭代到某轮时,训练误差逐渐下降,但校验集误差却在逐渐上升。这时,你需要在那轮提前停止训练,获得模型。就这么简单。

还有个解释是,每个神经元的激活函数在不同区间有不同的拟合性能,因此在训练时,网络开始初始化的值比较小,随着训练进行有些值越来越大,因此较早地停止训练能让网路的拟合能力限制在较好的区间内。


  • Penalizing Large Weights

过拟合发生时,往往会出现拟合函数在训练数据点上的“曲率”很大。而这些“曲率”是由模型的参数近似表达出来的,因此通过对大值参数的惩罚来抑制这种曲率的发生。也就是对loss中加些正则化项。


  • Dropout

想法是尝试添加规则来训练神经网络,使神经

  • 2
    点赞
  • 8
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值