机器学习 BN层实现细节

BN层实现细节:

一个问题:

在上图中的最后一行中, 进行了scale 和 shift,此时已经完成了归一化操作, 这样做的原因是:

如果没有scale和shift且使用sigmoid作为激活函数的话, 那么BN会使得输入sigmoid的数据都处

于其梯度较大的区域,而如果都在该区域的话, sigmoid的非线性拟合能力将会被减弱, 因为这段

区域与线性比较相似, 因此会降低模型的拟合能力, 因此需要将一部分数据移出梯度较大的区域,

也就是scale和shift操作的作用。

Batch Norm 与 Layer Norm

Batch Norm 是对Batch中不同样本的feature map 的相同位置通道的进行归一化, 如上图的上半部分所示

Layer Norm 是只对自己进行归一化, 考虑的是自己的feature map的所有通道, 如上图的下半部分所示

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值