深度学习怎样避免过拟合

过拟合的原因是相对于训练样本的数量,模型的容量过大,导致无法降低泛化误差。解决的方法就有增加训练样本的数量,限制模型的容量, 和使用集成方法。

增加训练样本的数量的方法有:

1. 数据集增强

限制模型的容量的方法有:

1. 参数范数惩罚(有L2正则,和L1正则)

2. 提前终止(early stopping),当验证集的误差(或者说损失)开始由减小变为增大(U型)时,停止训练

3. 参数共享,参数共享可以认为是对参数增加了约束,应用于计算机视觉的卷积神经网络(CNN)是一个例子

集成方法有:

1. Bagging,通过结合几个模型降低泛化误差的技术,有效的原因是不同的模型的误差不会一模一样,那么模型平均就可以减少误差

2. Dropout,Dropout 是在训练过程中,按照设定的概率将输入单元和隐藏单元的输出乘零。 Dropout可以认为是集成大量深层神经网络的Bagging方法。

 

祖国翔,于上海

https://www.linkedin.com/in/guoxiang-zu/

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值