免费链接: Blogger(需翻Q)
clip_grad_norm_的原理
本文是对梯度剪裁: torch.nn.utils.clip_grad_norm_()文章的补充。所以可以先参考这篇文章
从上面文章可以看到,clip_grad_norm
最后就是对所有的梯度乘以一个clip_coef
,而且乘的前提是clip_coef一定是小于1的,所以,按照这个情况:clip_grad_norm
只解决梯度爆炸问题,不解决梯度消失问题
clip_grad_norm_参数的选择(调参)
从上面文章可以看到,clip_coef
的公式为: