13 Dropout(丢弃法)

正则项只在训练时使用,他们在更新权重时让模型复杂度降低一点点,

dropout正则项方法之一,深度学习崛起前,最早提出的算法。

动机:一个好的模型,需要对你的输入数据鲁棒,无论加入多少噪音都有稳定的输出

使用有噪音的数据等价于一个正则,这个是随机噪音

丢弃法:在层之间增加噪音,相当于正则

通常适用:隐藏全连接层的输出上,丢弃是在训练过程中,推理过程中不丢弃

方法:随机选择一部分参数丢弃置为0 ,其余参数同比例增大,均值不变

实际应用场景:一个更深,更复杂的模型,使用dropout往往效果更好。

例如,模型a是一层128个参数的感知机,模型b有两层感知机,每层128个参数,dropout为0.5,实际效果往往模型2更好。

总结:

丢弃法(dropout)是通过将输出项随机置为0来控制模型复杂度

常用于多层感知机的隐藏层输出上

丢弃概率是控制模型复杂度的超参数

问题:

1.丢弃法的丢弃依据是什么?不合理的丢弃对输出结果影响很大么?

dropout可以看做一个正则项,所谓不合理的丢弃就是超参数丢弃概率没设置好,设置低了,可能过拟合,设高了,可能欠拟合,这个可以调。

丢弃概率常用值:0.5,0.1,0.9

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值