循环神经网络_门控和长短期记忆循环神经网络

本文详细介绍了循环神经网络的两种重要变体:LSTM(长短期记忆网络)和GRU(门控循环单元)。LSTM通过遗忘门、输入门和输出门有效解决了长期依赖问题,而GRU则通过重置门和更新门简化了LSTM的结构,但仍能保持良好的性能。两者都在解决RNN的梯度消失或爆炸问题上表现出色,并广泛应用于自然语言处理等领域。
摘要由CSDN通过智能技术生成

长短期记忆(Long Short-Term Memory,LSTM)网络是循环神经网络的一个变体,可以有效地解决简单循环神经网络的梯度爆炸或消失问题。

门控循环单元(gated recurrent unit,GRU)是LSTM网络的一种效果很好的变体,它较LSTM网络的结构更加简单,而且效果也很好,因此也是当前非常流行的一种网络。GRU既然是LSTM的变体,因此也是可以解决RNN网络中的长依赖问题.

炫云:循环神经网络​zhuanlan.zhihu.com
ce0de643a826ed0a649d7e2210e5aa48.png

一、LSTM 网络

长短期记忆网络–通畅叫做”LSTMs”–是一种特殊的RNNs, 它能够学习长期依赖。LSTM由Hochreiter&Schmidhuber(1997)引入,被明确的设计用来解决长期依赖问题。

所有的递归神经网络都有重复神经网络本身模型的链式形式。在标准的RNN, 这个复制模块只有一个非常简单的结构,例如一个tanh层。

3dfe2c46993d51b0577d18760d59a574.png

LSTMs 也有这种链式结构,但是这个重复模块与上面提到的RNN结构不同:LSTMs并不是只增加一个简单的神经网络层,而是四个,它们以一种特殊的形式交互。

a76b85d734eb48da434e0ba910d63bd7.png

首先简绍使用的符号表示方法:

4e1303356a8e05007243a7cdd6565872.png

在上图中,每条线表示一个向量,从一个输出节点到其他节点的输入节点。这个粉红色圆圈表示逐点式操作,就像向量加法。黄色的盒子是学习好的神经网络的层。线条合表示联结,相反,线条分叉表示内容被复制到不同位置。

LSTM的核心思想

LSTM的核心之处就是它的神经元状态,如下图中所示,上面那条贯穿整个结构的水平线。
神经元状态就像是一个传送带。它的线性作用很小,贯穿整个链式结构。信息很容易在传送带上传播,状态却并不会改变。

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值