跟李沐学AI:门控循环单元GRU、

目录

简介

候选隐藏状态

隐状态


简介

GRU是一种在循环神经网络中使用的单元结构。它旨在解决传统RNN在网络处理长序列数据时遇到的梯度消失或梯度爆炸问题。

GRU通过引入门控机制来控制信息的流动,从而使得网络能够更好地学习长期依赖性。

门可以视为一个与隐状态相同长度的向量,分为重置门和更新门。 重置门允许我们控制“可能还想记住”的过去状态的数量; 更新门将允许我们控制新状态中有多少个是旧状态的副本。更新门是一个sigmoid激活函数输出的结果,其值范围在0到1之间。当更新门完全打开(接近1)时,意味着旧状态将完全保留;当它关闭(接近0)时,则意味着旧状态将被丢弃,新的候选状态将完全取代旧状态。

重置门计算公式为:R_t=\sigma(X_tW_{xr}+H_{t-1}W_{hr}+b_r)

更新门计算公式为:Z_t=\sigma(X_tW_{xz}+H_{t-1}W_{hz}+b_z)

候选隐藏状态

 候选隐状态(candidate hidden state)是指在某一时间步t计算出的一个潜在的新隐状态值,通常用\widetilde{H_t}表示。

候选隐状态计算公式为:\widetilde{H_t}=tanh(X_tW_{xh}+(R_t\odot H_{t-1})+b_h)

符号⊙是Hadamard积(按元素乘积)运算符。 在这里,我们使用tanh非线性激活函数来确保候选隐状态中的值保持在区间(−1,1)中。其中,重置门R_t的作用是确定上一时刻的状态h_{t-1}​中有多少信息需要传递到当前时刻的候选隐状态中。如果重置门关闭(即R_t​接近于0),则上一时刻的信息对当前候选隐状态的影响很小;如果重置门开启(即R_t​接近于1),则上一时刻的信息将完全参与当前候选隐状态的计算。

隐状态

结合更新们,可以确定新的隐状态H_tZ_t决定了新的隐状态多大程度来自旧的隐状态H_{t-1}和新的候选状态\widetilde{H_t}。每当更新门Z_t接近1时,模型就倾向只保留旧状态。 此时,来自X_t的信息基本上被忽略, 从而有效地跳过了依赖链条中的时间步t。 相反,当Z_t接近0时, 新的隐状态H_t就会接近候选隐状态\widetilde{H_t}。 

隐状态公式为:H_t=Z_t\odot H_{t-1}+(1-Z_t)\odot \widetilde{H_t}

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值