当卷积层后跟batch normalization层时为什么不要偏置b

起因

之前使用的是inception-v2模型,在v2中,标准的卷积模块为:
* conv_w_b->bn->relu ->pooling*
即,在v2中,尽管在卷积之后、激活函数之前大量使用batch normalization,但是卷积层依然使用可学习的偏置参数。

这也比较符合我的直观理解,因为偏置在一般的卷积神经网络中本来就是很重要的,可以让超判决面不过原点。
但是我在读inception-v3的代码时,发现v3中一个卷积模块中 bn和bias是不共存的,这令我很费解,这么重要的参数为什么没有?

后来想明白了,接下来是明白的过程:

首先,看bias的有无到底会不会对bn的结果造成影响?
bn操作的关键一步可以简写为:

yi=xix¯D(x)

当加上偏置之后,为:
ybi=xbixb¯D(xb)

其中:
xbi=xi+b

,然后我们对公式进行化简:
ybi=xi+b(x¯+b)D(xb)=xix¯D(xb)

而:
D(xb)=E[(xb)2][E(xb)]2D(xb)=1Ni(xbi)2(x¯+b)2D(xb)=1Ni(xi+b)2(x¯+b)2D(xb)=1Nix2i+2bx¯+b2(x¯+b)2D(xb)=1Nix2ix¯2D(xb)=D(x)

所以:
ybi=yi


好了。
那么为什么没有bias的卷积层能够对bn后的输入学习到很好的决策面呢?
当然啦,bn本身就是将数据归一化到标准分布的呀~

  • 32
    点赞
  • 65
    收藏
    觉得还不错? 一键收藏
  • 16
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 16
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值