Normalization 总结

在这里插入图片描述
instanceNorm在图像像素上,对HW做归一化,用在风格化迁移;也就是每个图片的每个channel做归一化,
instanceNorm是最小单位,是每个图片的每个channel的,如果包含部分channels,则就是GroupNorm;
instanceNorm是最小单位,是每个图片的每个channel的,如果包含所有channels,则就是layerNorm;
instanceNorm是最小单位,是每个图片的每个channel的,如果包含多幅图片,则就是batchNorm;

Batch Normalization
batchNorm是在batch上,对NHW做归一化,可能是多幅图片一起做。取决于batch大小。每次一个channel的。

layerNorm在通道方向上,对CHW归一化,主要对RNN作用明显;
每个layer做归一化。(一个layer相当于所有channels的集合)

GroupNorm将channel分组,然后再做归一化; GN将channel方向分group,然后每个group内做归一化

SwitchableNorm是将BN、LN、IN结合,赋予权重,让网络自己去学习归一化层应该使用什么方法。

  • 0
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值