小常识27:Batch Normalization 的原理与作用
(阿里达摩一面基础题——机器学习2019届内推)
1、Batch Normalization的本质思想
BN的基本思想其实相当直观:因为深层神经网络在做非线性变换前的激活输入值(Y=Wx+B,x是输入)随着网络深度加深或者在训练过程中,其分布逐渐发生偏移或者变动,之所以训练收敛慢,一般是整体分布逐渐往非线性函数的取值区间的上下限两端靠近(对于Sigmoid函数来说,意味着激活输入值WU+B是大的负值或正值),所以这导致后向传播时低层神经网络的梯度消失,这是训练深层神经网络收敛越来越慢的本质原因,而