CS224d lecture10 GRU与NMT相关

1.GRUs

在时间t处看到的词如何影响后面的n个词(即t+n处看到的)?
在这里插入图片描述
反向传播中连续的矩阵乘法可能会造成梯度消失。下图是基本的循环神经网络中在时间序列上的传递过程。
在这里插入图片描述
门控单元的情况下,除了传统循环神经网络在时间序列上的连接,还会有其余短连接,如下图绿圈表示的连接,能够实现t时间直接影响t+x,在反向传播时就能计算t时间段对t+x时间段的影响,以此学习到长期的依赖关系。
在这里插入图片描述
GRU具体实现:
f ( h t − 1 . x t ) = u t ⊙ h t ~ + ( 1 − u t ) ⊙ h t − 1 f(h_{t-1}.x_t)=u_t\odot{\widetilde{h_t}}+(1-u_t)\odot{h_{t-1}} f(ht1.xt)=utht +(1ut)ht1
h t ~ = t a n h ( W [ x t ] + U ( r t ⊙ h t − 1 + b ) \widetilde{h_t}=tanh(W[x_t]+U(r_t\odot{h_{t-1}}+b) ht =tanh(W[xt]+U(rtht1+b)
更新门:
r t = σ ( W r [ x t ] + U r h t − 1 + b r ) r_t=\sigma(W_r[x_t]+U_rh_{t-1}+b_r) rt=σ(Wr[xt]+Urht1+br)

重置门:
u t = σ ( W u [ x t ] + U u h t − 1 + b u ) u_t=\sigma(W_u[x_t]+U_uh_{t-1}+b_u) ut=σ(Wu[xt]+Uuht1+bu)

更新门和重置门都是向量

带有门控单元的RNN神经网络计算过程总结:
首先重置门能学到一个想要读取和使用的隐藏层的子集,读取子集后( r t ⊙ h t − 1 r_t\odot{h_{t-1}} rtht1)进行标准的RNN计算去更新内容(即上述表达式中的 h t ~ = t a n h ( W [ x t ] + U ( r t ⊙ h t − 1 + b ) \widetilde{h_t}=tanh(W[x_t]+U(r_t\odot{h_{t-1}}+b) ht =tanh(W[xt]+U(rtht1+b)),然后选择可写入的隐藏层子集(更新门),更新写回(即 h ← u ⊙ h ~ + ( 1 − u t ) ⊙ h h\leftarrow{u\odot{\widetilde{h}+(1-u_t)\odot{h}}} huh +(1ut)h)。

GRU不会有梯度消失问题原因:
f ( h t − 1 . x t ) = u t ⊙ h t ~ + ( 1 − u t ) ⊙ h t − 1 f(h_{t-1}.x_t)=u_t\odot{\widetilde{h_t}}+(1-u_t)\odot{h_{t-1}} f(ht1.xt)=utht +(1ut)ht1式子中+是一个线性关系,当 u t u_t ut趋近于0时,相当于直线逼近与 h t h_t ht,不会有任何信息的损失,可以有很长的距离依赖,不用每次都乘以矩阵(造成梯度消失),当 u t u_t ut趋近于1,没有任何信息从 h t − 1 h_{t-1} ht1流出,没有长距离的依赖,就是模型当前学到的东西。

GRU与LSTM对比:
在这里插入图片描述
GRU的h等价于LSTM的c,LSTM有一个遗忘门(f)和一个输入门(i)。
GRU中有重置门,在计算候选更新时( h ~ \widetilde{h} h )可能忽略部分过去的值;LSTM在候选更新时( c ~ \widetilde{c} c )总是使用当前输入( c ~ = t a n h ( W c [ x t ] + U c h t − 1 + b c \widetilde{c}=tanh(W_c[x_t]+U_ch_{t-1}+b_c c =tanh(Wc[xt]+Ucht1+bc,其中 h t − 1 h_{t-1} ht1 c t − 1 c_{t-1} ct1计算而来(即 h t = o t ⊙ t a n h ( c t ) h_t=o_t\odot{tanh(c_t)} ht=ottanh(ct)))。

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值