DropOut

DropOut本身随机将网络的一部分激活函数置零。一般在全连接层使用。少部分情况也会在卷积层使用。.

dropout本身避免了特征或者参数之间的互相适应,在某种程度上可以抑制过拟合。或者在某种意义上来说,是在一个模型中实现集成学习。同时集成的数目十分巨大。

dropout本身会彻底改变神经网络的运算方式,在测试时,用DropOut的概率乘以输出值。

要么就在训练的时候除以概率……这样测试的时候少算一次乘法。

本身dropout采取的策略就是在训练时增加一些随机性,或者说增加一些难度,在测试时抵消掉这一部分增加的难度,从而实现算法的鲁棒性。很多防止过拟合的方法都是采取这个策略。

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值