在神经网络的训练过程中,由于神经网络初始参数的随机初始化一般是正态分布函数的初始化,因此往往初始化权值小于1,导致了如果随着网络深度的提升,如果使用sigmoid函数,则累积的结果是梯度值的指数级减小,从而导致梯度趋近于0,使其难以有效地被训练。
后续会对当前针对网络层数加深,解决梯度丢失问题的多种方法进行归纳。
参考资料:
深度神经网络中的梯度丢失和梯度爆炸
在神经网络的训练过程中,由于神经网络初始参数的随机初始化一般是正态分布函数的初始化,因此往往初始化权值小于1,导致了如果随着网络深度的提升,如果使用sigmoid函数,则累积的结果是梯度值的指数级减小,从而导致梯度趋近于0,使其难以有效地被训练。
后续会对当前针对网络层数加深,解决梯度丢失问题的多种方法进行归纳。
参考资料:
深度神经网络中的梯度丢失和梯度爆炸