GRU--

RNN没有机制去关注某些地方,或者不关注某些地方。 

门控神经网络,通过一些gating单元使得我们在构造隐藏状态的时候可以选择重要的,忘记不重要的。同注意力机制。

更新门:发现一个数据比较重要,想要尽量用它去更新隐藏状态。

遗忘门(重置门):发现一个到目前为止不重要的,可能是输入,或者是隐藏状态里的一部分。

上图表示一个层, 有一个输入:X_{t};一个隐藏状态H_{t-1}.

 候选隐状态:去掉R_{t},隐状态计算方法同RNN。

:按元素乘法的意思。

如果R_{t}的元素靠近0,的结果就会靠近0.

 真正的隐状态是Z_{t}按元素点乘上一次的隐状态+(1-z_{t})点乘候选隐藏状态。

如果Z_{t}=0:基本就回到了RNN的状态。不去看过去的状态,只看现在的状态。

 

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值