话不多说,先上图(从其他地方搜罗到的,感觉很清晰直观了)
- Batch Normalization(BN)——【最常见了属于是】对一个batch size数据的某一个channel做normalization,即减均值除方差
- Layer Normalization(LN) ——【RNN、transformer,NLP中常见,因为输入为序列,长度不定即channel不同】对一个数据的所有channel做normalization
- Group Normalization(GN)——【BN要求BatchSize要大,太小时可用GN】对一个数据沿channel方向分为num_goups份,再分别做normalization,相当于LN的分组实现
- Instance Normalization(IN)——【暂时还没碰上,碰上再说hhh】