lstm结构的原理

本文详细解析了LSTM(long short term memory)的工作机制,包括细胞状态、输入门、遗忘门和输出门,以及LSTM如何通过门控结构实现信息的选择性传递。此外,还介绍了LSTM的变种GRU,以及多层LSTM的应用优势。
摘要由CSDN通过智能技术生成

一.LSTM网络
long short term memory,即我们所称呼的LSTM,是为了解决长期以来问题而专门设计出来的,所有的RNN都具有一种重复神经网络模块的链式形式。在标准RNN中,这个重复的结构模块只有一个非常简单的结构,例如一个tanh层。

在这里插入图片描述LSTM 同样是这样的结构,但是重复的模块拥有一个不同的结构。不同于单一神经网络层,这里是有四个,以一种非常特殊的方式进行交互。
在这里插入图片描述
不必担心这里的细节。我们会一步一步地剖析 LSTM 解析图。现在,我们先来熟悉一下图中使用的各种元素的图标。
在这里插入图片描述
在上面的图例中,每一条黑线传输着一整个向量,从一个节点的输出到其他节点的输入。粉色的圈代表 pointwise 的操作,诸如向量的和,而黄色的矩阵就是学习到的神经网络层。合在一起的线表示向量的连接,分开的线表示内容被复制,然后分发到不同的位置。

二.LSTM核心思想

LSTM的关键在于细胞的状态整个(绿色的图表示的是一个cell),和穿过细胞的那条水平线。

  • 8
    点赞
  • 29
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论
LSTM(Long Short-Term Memory,长短期记忆网络)是一种特殊的循环神经网络(RNN),用于处理序列数据,特别是对于长期依赖和梯度消失问题有所改进。它的设计目的是增强传统RNN的记忆能力,特别是在处理时间序列中的信息时。 **原理:** LSTM的核心在于其内部结构,包含三个门控单元:输入门、遗忘门和输出门。这些门的作用类似于控制信号,决定哪些信息应被保留(遗忘门)、哪些新输入应被接受(输入门)以及哪些已有的状态信息应输出到下一个时刻(输出门)。每个门都有一个激活函数,如sigmoid,用来生成0-1之间的值。 - **输入门(Input Gate)**:决定了新的输入信息应该如何影响细胞状态。 - **遗忘门(Forget Gate)**:决定了当前细胞状态中哪些部分应该丢弃。 - **输出门(Output Gate)**:决定了从细胞状态输出多少给外部环境。 - **细胞状态(Cell State)**:存储着整个序列的信息,能够保持长时间的记忆。 - **隐藏状态(Hidden State)**:细胞状态的处理结果,作为下一时间步的输入。 **结构:** LSTM结构包括以下几个主要组件: 1. **输入层(Input Layer)**:接收输入序列的数据。 2. ** Forget Gate(遗忘门单元)**:根据前一时刻的隐藏状态和当前时刻的输入计算忘记概率。 3. ** Input Gate(输入门单元)**:决定如何更新细胞状态,考虑新输入和旧内容。 4. ** Cell State(细胞状态单元)**:根据忘记门和输入门的结果更新。 5. ** Output Gate(输出门单元)**:控制哪个部分的细胞状态传递到下一个时间步,生成隐藏状态。 6. ** 输出层(Output Layer)**:基于当前的隐藏状态生成最终的预测或输出。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

智能学习者

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值