当神经网络的层数较多时,模型的数值稳定性容易变差。假设一个层数为L的多层感知机的第 l l l层 H ( l ) H^{(l)} H(l)的权重参数为 W ( l ) W^{(l)} W(l),输出层 H ( L ) H^{(L)} H(L)的权重参数为 W ( L ) W^{(L)} W(L)。为了便于讨论,不考虑偏差参数,且设所有隐藏层的激活函数为恒等映射 ϕ ( x ) = x \phi(x)=x ϕ(x)=x。给定输入 X X X,多层感知机的第 l l l层的输出 H ( l ) = X W ( 1 ) X W ( 2 ) . . . W ( l ) H^{(l)}=XW^{(1)}XW^{(2)}...W^{(l)} H(l)=XW(1)XW(2)...W(l)。此时,如果层数 l l l较大, H ( l ) H^{(l)} H(l)的计算可能会出现衰减或爆炸。
举个例子,假设输入和所有层的权重参数都是标量,如权重参数为0.2和5,多层感知机的第30层输出为输入 X X X分别与 0. 2 30 ≈ 1 × 1 0 − 21 0.2^{30}\approx 1\times10^{-21} 0.230≈1×10−21(衰减)和 5 30 ≈ 9 × 1 0 20 5^{30}\approx 9\times 10^{20} 530≈9×1020(爆炸)的乘积。类似的,当层数较多时,梯度的计算也更容易出现衰减或爆炸。