深度学习中的组归一化(GroupNorm)

批归一化(BN)的缺点

BN 需要用到足够大的批大小(例如,每个工作站采用 32 的批量大小)。一个小批量会导致估算批统计不准确,减小 BN 的批大小会极大地增加模型错误率。加大批大小又会导致内存不够用。

在这里插入图片描述

归一化的分类

在这里插入图片描述
BN,LN,IN,GN从学术化上解释差异:

  • BatchNorm:batch方向做归一化,算N*H*W的均值
  • LayerNorm:channel方向做归一化,算C*H*W的均值
  • InstanceNorm:一个channel内做归一化,算H*W的均值
  • GroupNorm:将channel方向分group,然后每个group内做归一化,算(C//G)*H*W的均值

LN 和 IN 在视觉识别上的成功率都是很有限的,对于训练序列模型(RNN/LSTM)或生成模型(GAN)很有效。

所以,在视觉领域,BN用的比较多,GN就是为了改善BN的不足而来的。

GN 把通道分为组,并计算每一组之内的均值和方差,以进行归一化。GN 的计算与批量大小无关,其精度也在各种批量大小下保持稳定。可以看到,GN和LN很像。

怎么做

在现有深度学习框架下可以轻松实现组归一化。
在这里插入图片描述

效果

杠杠滴
在这里插入图片描述

参考资料

FAIR何恺明等人提出组归一化:替代批归一化,不受批量大小限制

组归一化(Group Normalization)的解释

评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值