摘录自北京邮电大学计算机学院鲁鹏老师的PPT 摘录自北京大学软件与微电子学院曹健老师的PPT 1.对神经网络的输出进行Batch Normalization(批归一化) 小批量梯度下降算法回顾:每次迭代时会读入一批数据,比如32个样本;将过当前神经元后会有32个输出值y1,y1…y32。 批归一化操作:对32个输出进行减均值除方差操作;可保证当前神经元的输出值的分布符合0均值1方差。 2.卷积操作后的Batch Normalization(批归一化)