深度学习中的循环神经网络GRU详解

本文详细介绍了门控循环单元(GRU),一种循环神经网络的门控机制,与LSTM相类似。GRU通过重置门和输入门控制信息流动,简化了LSTM的结构,减少了参数数量。在特定任务上,GRU表现接近LSTM,但在一些复杂任务和大规模应用中,LSTM的表现通常更优。
摘要由CSDN通过智能技术生成

(一)、什么是循环神经网络GRU?
GRU指的是门控循环单元(Gated Recurrent Units ),它是循环神经网络中的一种门控机制,是由Kyunghyun Cho等人于2014年引入的,它与具有遗忘门的长短期记忆网络(LSTM)相类似。

(二)、GRU实现记忆的原理是什么?
参考:深度学习中的循环神经网络LSTM详解
在这里插入图片描述

2.1 GRU网络原理图

(三)、GRU的原理公式是什么?

经典的GRU中,第t步的更新计算公式如下( ⊙ \odot 表示元素点乘):
{ 输 入 : x i n p u t = c o n c a t [ h t − 1 , x t ] 重 置 门 神 经 元 : r t = σ ( x i n p u t W r + b r ) 记 忆 门 神 经 元 : h ~ t = tanh ⁡ ( [ r t ⊙ h t − 1 , x i n p u t ] W h + b h ) 输 入 门 神 经 元 : z t = σ ( x i n p u t W z + b z ) 输 入 后 的 记 忆 : h ~ t ′ = z t ⊙ h t ~ 遗 忘 门 “ 神 经 元 ” : f t = 1 − z t 遗 忘 后 的 t − 1 时 刻 记 忆 : h t − 1 ′ = f t ⊙ h t − 1 t 时 刻 的 记 忆 : h t = h t − 1 ′ + h ~ t ′ \begin{cases} 输入:x_{input}=concat[h_{t-1},x_t]\\ 重置门神经元:r_t=\sigma(x_{input}W_r+b_r) \\ 记忆门神经元:\tilde{h}_t=\tanh([r_t\odo

评论 2
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值