NLP-GRU


一、GRU概念

GRU(Gated Recurrent Unit)也称门控循环单元结构,它也是传统RNN的变体,能够有效捕捉长序列之间的语义关联,缓解梯度消失或爆炸现象。

它的核心结构可以分为两个部分:更新门、重置门

更新门:能够关注的机制
重置门:能够遗忘的机制

在这里插入图片描述

二、分步拆解

1、更新门、重置门

下图描绘了门控循环单元中的重置⻔和更新⻔的输⼊,输⼊是由当前时间步的输⼊和前⼀时间步的隐状态给出。两个⻔的输出是由使⽤sigmoid激活函数的两个全连接层给出。
在这里插入图片描述

2、候选隐藏状态

在这里插入图片描述

GRU候选隐藏状态: H 侯 = t a n h ( X t W x h + ( R t ⊙ H t − 1 ) W h h + b h ) H_侯 = tanh(X_t W_{xh} + (R_t ⊙ H_{t−1}) W_{hh} + b_h) H=tanh(XtWxh+(RtHt1)Whh+bh)

RNN隐藏状态: H t = t a n h ( X t W x h + ( 1 ⊙ H t − 1 ) W h h + b h ) H_t = tanh(X_t W_{xh} + (1⊙ H_{t−1}) W_{hh} + b_h) Ht=tanh(XtWxh+(1Ht1)Whh+bh)

GRU 的候选隐藏状态与 RNN 隐藏状态相比:候选隐藏状态的 R t R_t Rt 不一定等于 1。

极限情况, 当 R t = 0 R_t = 0 Rt=0 时,候选隐藏状态完全由当前时间步 X t X_t Xt 决定,遗忘掉之前的隐藏状态,因此, R t R_t Rt 决定了遗忘知识的多少,即重置门具有遗忘机制

3、隐藏状态

在这里插入图片描述

GRU隐藏状态输出 H t = Z t ⊙ H t − 1 + ( 1 − Z t ) ⊙ H 侯 H_t = Z_t ⊙ H_{t−1} + (1 − Z_t) ⊙ H_侯 Ht=ZtHt1+(1Zt)H

RNN隐藏状态输出 H t H_t Ht

GRU 的隐藏状态输出 与 RNN 隐藏状态输出相比:GRU隐藏状态的 Z t Z_t Zt 不一定等于 1。

其输出还记录了之前的隐藏状态输出,极限情况,GRU输出全部之前的隐藏状态。因此, Z t Z_t Zt 决定了关注之前知识的多少,即更新门具有关注机制

三、总结

在这里插入图片描述

  • 1
    点赞
  • 5
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

大虾飞哥哥

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值