RNN梯度爆炸与梯度消失

矩阵层之间的梯度对应的n*n矩阵又被称为雅克比矩阵。
 

当雅可比矩阵的最大特征值大于1时,随着离输出越来越远,每层的梯度大小呈指数增长,导致梯度爆炸;反之当最大特征值小于1时,梯度大小会指数减小,即梯度消失。梯度消失意味着无法通过增加网络层次来提升预测效果,只有靠近输出的那几层才起到真正学习的作用,因此RNN很难学习到输入序列的长距离依赖。

梯度爆炸可以用梯度裁剪来缓解,当大于某个阈值的时候,对梯度进行等比缩放。而梯度消失需要通过对模型进行调整,前馈神经网络可以通过残差网络来解决,而RNN只能 通过改变门控,比如LSTM及其变种

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值