本文翻译自What is Gradient Clipping?,如有不妥私信联系删除。
什么是梯度裁剪
——解决梯度爆炸的一种简单高效的方法
循环神经网络(RNN)通过利用过去输入的隐藏状态(这些状态存储了数据的信息)得以在序贯数据上表现的非常好:t时刻隐藏状态的取值不仅取决于t时刻的输入,而和t时刻之前的取值相关。这种强大的架构在训练时却存在两个问题:梯度爆炸和梯度消失。本文将介绍梯度裁剪这一处理梯度爆炸问题的有效方法。
梯度爆炸和梯度消失背后的直观原因
梯度爆炸是指在模型训练过程中梯度会变得太大而使得模型不稳定的问题;与之相似,梯度消失指模型训练过程中梯度太小使得训练过程无法继续的现象。两者阻止了神经网络参数的更新,以致不能从训练数据中得到稳定的模型。下面将以不严谨然而充分的讨论来是我们得到梯度爆炸哦和梯度消失的直观原因。
通过bp训练一个RNN时,意味着我们通过在每个时间段(每一步)都复制一份网络来展开RNN网络,并将展开后的网络视为一个多层前馈神经网络,显然层数与时间步数相同。然后考虑到权重共享,我们在展开的网络上进行bp:
这里的W指递归(循环?)的的权重矩阵。可以看出损失函数的梯度由
W
T
\mathbf{W}^T
WT的n个拷贝相乘构成,n指时间步数即该前馈神经网络的层数。而矩阵的多次相乘正是导致梯度爆炸/消失的罪魁祸首。
举一个简单的例子,
a
≠
1
a\neq 1
a=1,
a
n
a^n
an指数变化。考虑
n
=
30
n=30
n=30,则有
1.
1
n
≈
17.45
1.1^n\approx 17.45
1.1n≈17.45以及
0.
9
n
≈
0.042
0.9^n\approx 0.042
0.9n≈0.042,这里取n为30是考虑了实际情况:在NLP(自然语言处理)中,一个包含30个字词的句子是十分常见的,此外在许多分析中取30天的数据也十分常见。这个例子与
(
W
T
)
n
(\mathbf{W}^T)^n
(WT)n的情形是类似的——最容易理解的方式是考虑
W
T
\mathbf{W}^T
WT是可对角化的,则将其对角化后做幂运算可以清晰看出与上述例子的一致性。
如果想查看严密的论证,推荐阅读文献[2]
梯度裁剪
梯度裁剪是解决梯度爆炸的一种技术,其出发点是非常简明的:如果梯度变得非常大,那么我们就调节它使其保持较小的状态。精确的说,如果 ∥ g ∥ ≥ c \parallel{\mathbf{g}}\parallel \geq c ∥g∥≥c,则
g ← c ⋅ g / ∥ g ∥ \mathbf{g}\leftarrow c \cdot \mathbf{g}/\parallel \mathbf{g}\parallel g←c⋅g/∥g∥
此处的c指超参数,
g
\mathbf{g}
g指梯度,
∥
g
∥
\parallel{\mathbf{g}}\parallel
∥g∥为梯度的范数,
g
/
∥
g
∥
\mathbf{g}/\parallel \mathbf{g}\parallel
g/∥g∥必然是个单位矢量,因此在进行调节后新的梯度范数必然等于c,注意到如果
∥
g
∥
≤
c
\parallel{\mathbf{g}}\parallel \leq c
∥g∥≤c则不需要进行调节。
梯度裁剪确保了梯度矢量的最大范数(本文中规定为c)。即使在模型的损失函数不规则时,这一技巧也有助于梯度下降保持合理的行为。下面的图片展示了损失函数的陡崖。不采用裁剪,参数将会沿着梯度下降方向剧烈变化,导致其离开了最小值范围;而使用裁剪后参数变化将被限制在一个合理范围内,避免了上面的情况。
两大框架中的实现
- Tensorflow: tf.clip_by_global_norm
- PyTorch: torch.nn.utils.clip_grad_norm_
常见问题
如何选择超参数c
我们可以先进行数轮迭代,然后查看梯度范数的统计数据。以统计数据的均值作为c值的初始值是较为合理的初步尝试。
梯度裁剪能否用于训练RNN之外的神经网络
梯度裁剪可以应用于所有神经网络的训练中——任何可能发生梯度爆炸的训练过程都适用。
更多阅读
- 文献【1】的10.11
- 文献【3】介绍了一种新的平滑条件,为梯度裁剪的有效性提供了理论解释。
参考
[1] I. Goodfellow, Y. Bengio, and A. Courville. Deep Learning (2016), MIT Press.
[2] R. Pascanu, T. Mikolov, and Y. Bengio. On the difficulty of training Recurrent Neural Networks (2013), ICML 2013.
[3] J. Zhang, T. He, S. Sra, and A. Jadbabaie. Why gradient clipping accelerates training: A theoretical justification for adaptivity (2020), ICLR 2020.