概念:
- Batch Normalization (BN):在batch上,对NHW做归一化,对小batchsize效果不好
- Layer Normalization (LN):在通道方向上,对CHW归一化,主要对RNN作用明显
- Instance Normalization (IN):在图像像素上,对HW做归一化,用在风格化迁移
- Group Normalization (GN):将channel分组,然后再做归一化
- Switchable Normalization (SN):将BN、LN、IN结合,赋予权重,让网络自己去学习归一化层