Deep Learning学习笔记之循环神经网络(二)

两种门控循环网络——LSTM、GRU

LSTM——Long Short-Term Memory

长短时记忆网络,即Long Short-Term Memory,LSTM

其整体结构如图所示
在这里插入图片描述
在这里插入图片描述

关 于 其 s i g m o i d 函 数 , 用 于 三 个 门 控 单 元 部 分 , σ ( x ) = 1 1 + e − x 关于其sigmoid函数,用于三个门控单元部分,\sigma(x)= \frac{1}{1+e^{-x}} sigmoid,,σ(x)=1+ex1
网络中的其余两个激活函数为tanh函数
在这里插入图片描述
对于以上结构,我们分别进行解释
遗忘门
在这里插入图片描述
记忆门

在这里插入图片描述

遗忘门与旧状态相乘,遗忘掉确定丢弃的信息;记忆门与候选细胞单元相乘,确定进行记忆的信息
两者相加,更新细胞状态,从c<t-1>为c<t>
在这里插入图片描述

输出门,先将之前所得 的结果c<t>放入tanh,再与sigmoid处理后的输出门相乘获得输出h<t>
在这里插入图片描述

整体看来,图例中从左到右分别为遗忘门、记忆门、输出门,共同组成一层的LSTM单元
在这里插入图片描述
将最小单元不断重复,得到长短时记忆网络
在这里插入图片描述

长短时记忆网络,可以学习长期依赖信息。由于遗忘门(和输入门)的存在,能够处理梯度消失等情况


GRU——Gated Recurrent Unit

门控循环单元,即Gated Recurrent Unit,GRU。可以看作是LSTM的一种简化形式
在这里插入图片描述
对于GRU的确切结构,如下所示

在这里插入图片描述
与LSTM的三个门控单元不同,GRU只使用两个门控单元:重置门与更新门
首先确定重置门,是否丢弃上一个时间步的状态,由Fr获得这一时间步的候选隐藏状态
再确定更新门,即更新隐藏状态的一个参数。Fu是在新时间步的隐藏状态中,继承自上一时间步的隐藏状态的部分,1-Fu则是新时间步中所得候选隐藏状态的比重

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

胖虎干嘛了

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值