Dropout与Batch Normalization在网络中的作用究竟是怎样的?(以Unet网络为参考)

7 篇文章 2 订阅

看过相关论文的可能都注意到了,Dropout与Batch Normalization同时使用并不能达到1+1>=2的效果,反而会适得其反,下面我就用实践来看看究竟会怎样

直接上图:

 

以上结果都是在参数一样的情况下跑的

左上:原始网络 右上:单独添加了dropout的网络

左下:单独添加了BN的网络   右下:添加了BN+dropout的网路(BN在前,dropout在后)

最后一张图:添加了BN+dropout的网路(BN在后,dropout在前)

从实验的结果看,网络一定要加BN和dropout,并且BN单独用还是要好点。下面给出实验用的网络,GitHub上的。

链接:https://pan.baidu.com/s/1_4DqFpF8ytYdS3hNw5wQUg 
提取码:ts1l

  • 1
    点赞
  • 9
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

如雾如电

随缘

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值