神经网络的优化(5)----Dropout

一、Dropout怎么做                                                                                                                点击此处返回总目录

二、为什么Dropout有效

 

 

 

讲一下Dropout,我们先讲一下dropout是怎么做的,然后再讲为什么要这么做。

                          

 

一、Dropout怎么做

Dropout是怎么做的呢?

在training的时候,每一次要update之前,我们都对某一个神经元(包括input的地方,input Layer的每一个element也算是一个神经元)做采样。这个采样决定,这个神经元要不要被丢掉。每个神经元有p%的概率被丢掉。

                     

如果一个神经元被sample到被丢掉,跟它相连的weight也失去作用。所以做完这个sample之后,你的网络结构就变瘦了,变得比较细长。然后再train这个比较细长的网络。

                            

要注意一下,这个sampling是在每一次update参数之前都要做一次。每一次update的时候,拿来training的网络结构都是不一样的。每一次都要重新做一次sampling。

当你在training的时候,使用dropout,你的performance是会变差的。本来不用dropout的时候,本来比如说可以把正确率做到100,但是加上dropout以后,因为你的神经元莫名其妙就是不见,所以在train的时候

  • 1
    点赞
  • 7
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值