深度学习之BatchNorm和LayerNorm 一、BatchNorm-适用于CV二、LayerhNorm-适用于NLP 一、BatchNorm-适用于CV BatchNorm是把一个batch中同一通道的所有特征视为一个分布,对其进行标准化;每一通道对应一种特征,batchnorm后不同图片的同一通道的特征具有可比性; 二、LayerhNorm-适用于NLP LayerNorm是将一个样本的所有特征视为一个分布,对其进行标准化;