一、梯度消失
梯度消失是深度学习中常见的问题之一,特别是在训练深层神经网络时。它指的是在反向传播过程中,网络中较深层的神经元的权重更新接近于零,导致这些神经元的学习效果非常有限甚至停止学习。这会导致网络无法有效地学习和表示复杂的特征和模式,从而限制了神经网络的性能。
梯度消失问题主要影响那些使用饱和激活函数(如Sigmoid和Tanh)以及较深层次的神经网络。这些饱和激活函数在输入较大或较小的情况下,梯度会接近于零,从而在反向传播时传递到较浅层时会导致权重更新几乎没有变化,这就是梯度消失的表现之一。
梯度消失问题主要由使用饱和激活函数(如Sigmoid和Tanh)以及较深层次的神经网络结构引起。在反向传播过程中,梯度逐层传递并乘以权重,如果梯度在每一层都接近于零,那么在反向传播时梯度会逐渐变小,最终导致较深层的权重更新几乎没有变化,即梯度消失。
梯度消失会导致以下问题:
-
学习受限: 如果深