Index
主要参考了这篇博客BatchNormalization、LayerNormalization、InstanceNorm、GroupNorm、SwitchableNorm总结,另外添加了AttentiveNorm。
前言
论文链接
1、Batch Normalization:https://arxiv.org/pdf/1502.03167.pdf
2、Layer Normalizaiton:https://arxiv.org/pdf/1607.06450v1.pdf
3、Instance Normalization:https://arxiv.org/pdf/1607.08022.pdf
4、Group Normalization:https://arxiv.org/pdf/1803.08494.pdf
5、Switchable Normalization:https://arxiv.org/pdf/1806.10779.pdf
6、AttentiveNorm:https://arxiv.org/pdf/1908.01259.pdf
介绍
归一化层,目前主要有这几个方法,Batch Normalization(2015年)、Layer Normalization(2016年)、Instance Normalization(2017年)、Group Normalization(2018年)、Switchable Normalization(2018年),Attentive Normalization(2019年);
将输入的图像shape记为[N, C, H, W],这几个方法主要的区别就是在,
- BatchNorm是在batch上,对NHW做归一化,对小batchsize效果不好;
- LayerNorm在通道方向上