NLP深度学习 —— CS224学习笔记9

2.1梯度爆炸或消失

计算RNN的误差,我们计算每一步的误差并累加

每一步的误差通过微分链法则进行

在[k, t]时间区间内对于所有隐藏层的计算

每个是h的雅各宾矩阵

结合上述表达,我们得到

beta_w和beta_h代表两个矩阵范式的上限值。每个t时间戳偏分梯度的的范式

两个矩阵的范式通过L2正则来计算。

容易变得很大或很小,导致梯度爆炸或消失。

2.2解决方法

为解决梯度爆炸问题,Mikolov提出的方法简单直接,当梯度变大时进行剪切

为解决梯度消失问题,第一是矩阵初始化时进行仔细选择,而不是随机初始化。

第二是使用ReLU而不是sigmoid函数,这样微分要么0要么1,梯度在微分为1的神经元流动,反向传播时不会减弱。

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值