纯公式版RNN前向过程

普通Recurrent Neural Network (RNN)

输入: x t x_t xt

循环层: h t = f ( W x h x t + W h h h t − 1 + b h ) h_{t}=f\left(W_{x h} x_{t}+W_{h h} h_{t-1}+b_{h}\right) ht=f(Wxhxt+Whhht1+bh)

输出: y t = g ( W o h t + b o ) y_{t}=g\left(W_{\mathrm{o}} h_{t}+b_{\mathrm{o}}\right) yt=g(Woht+bo)

Long Short-Term Memory (LSTM)

三个门控信号:
i t = σ ( W x i x t + W h i h t − 1 + b i ) i_t=\sigma(W_{xi}x_t+W_{hi}h_{t-1}+b_i) it=σ(Wxixt+Whiht1+bi)
f t = σ ( W x f x t + W h f h t − 1 + b f ) f_t=\sigma(W_{xf}x_t+W_{hf}h_{t-1}+b_f) ft=σ(Wxfxt+Whfht1+bf)
o t = σ ( W x o x t + W h o h t − 1 + b o ) o_t=\sigma(W_{xo}x_t+W_{ho}h_{t-1}+b_o) ot=σ(Wxoxt+Whoht1+bo)

cell状态:
c t = f t ⊙ c t − 1 + i t ⊙ t a n h ( W x c x t + W h c h t − 1 + b c ) c_t=f_t\odot c_{t-1}+i_t\odot tanh(W_{xc}x_t+W_{hc}h_{t-1}+b_c) ct=ftct1+ittanh(Wxcxt+Whcht1+bc)

h层状态:
h t = o t ⊙ t a n h ( c t ) h_t=o_t\odot tanh(c_t) ht=ottanh(ct)

Gate Recurrent Unit (GRU)

两个门控信号:
r t = σ ( W x r x t + W h r h t − 1 + b r ) r_t = \sigma(W_{xr}x_t+W_{hr}h_{t-1} + b_r) rt=σ(Wxrxt+Whrht1+br)
z t = σ ( W x z x t + W h z h t − 1 + b z ) z_t = \sigma(W_{xz}x_t+W_{hz}h_{t-1} + b_z) zt=σ(Wxzxt+Whzht1+bz)

中间状态 n t n_t nt
n t = t a n h ( W x n x t + b x n + r t ⊙ ( W h n h t − 1 + b h n ) ) n_t=tanh(W_{xn}x_t + b_{xn}+r_t\odot(W_{hn}h_{t-1}+b_{hn})) nt=tanh(Wxnxt+bxn+rt(Whnht1+bhn))

h层状态:
h t = ( 1 − z t ) ⊙ n t + z t ⊙ h t − 1 h_t=(1-z_t)\odot n_t+z_t \odot h_{t-1} ht=(1zt)nt+ztht1

相对于LSTM,GRU少了一个门,因此网络参数相对较少,但性能却和LSTM接近。

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值