《神经网络》—— 长短期记忆网络(Long Short-Term Memory,LSTM)

一、LSTM的简单介绍

  • 传统RNN循环神经网络的局限

    • 示例:当出现“我的职业是程序员。。。。。。我最擅长的是电脑”。当需要预测最后的词“电脑”。当前的信息建议下一个词可能是一种技能,但是如果我们需要弄清楚是什么技能,需要先前提到的离当前位置很远的“职业是程序员”的上下文。这说明相关信息和当前预测位置之间的间隔就变得相当的大。
    • 在理论上,RNN绝对可以处理这样的长期依赖问题。人们可以仔细挑选参数来解决这类问题中的最初级形式,但在实践中,RNN则没法太好的学习到这些知识
    • 原因是:梯度会随着时间的推移不断下降减少,而当梯度值变得非常小时,就不会继续学习。​
  • 长短期记忆网络(Long Short-Term Memory,LSTM)是一种特殊的循环神经网络(Recurrent Neural Network, RNN),主要设计用来解决传统RNN在处理长序列数据时存在的梯度消失梯度爆炸问题。LSTM通过引入门(Gate)机制,使得网络能够记住长期依赖的信息,同时忽略不重要的信息。

  • 下面链接中是对RNN网络的介绍:

  • 以下为LSTM的内部结构图:
    在这里插入图片描述

  • LSTM相当于在RNN的隐藏层的内部结构中进行了上图中进一步的改进,并循环的向后输出数据,如下图所示:
    在这里插入图片描述

二、 LSTM的核心组件

LSTM的核心在于其细胞状态(Cell State)和三个“门”机制:遗忘门(Forget Gate)、输入门(Input Gate)和输出门(Output Gate)。

  1. 细胞状态(Cell State)

    • 细胞状态是LSTM中的“记忆”线,它沿着整个链一直传递下去,只有一些少量的线性操作作用于其上,因此信息可以很容易地流过而不改变。
    • 如下图所示:
      在这里插入图片描述
  2. 遗忘门(Forget Gate)

    • 遗忘门决定了上一细胞状态中的哪些信息需要被丢弃。它通过查看前一个隐藏状态 h t − 1 h_{t-1} ht1 和当前输入 x t x_t xt,然后由sigmoid函数输出一个0到1之间的数,这个数表示细胞状态中信息的保留程度(1表示完全保留,0表示完全丢弃)。
    • 如下图为遗忘门结构和计算公式
      在这里插入图片描述
  3. 输入门(Input Gate)

    • 输入门决定了当前输入 x t x_t xt 中哪些信息需要被加入到细胞状态中。它首先通过sigmoid层决定哪些值需要更新,然后tanh层创建一个新的候选值向量 C ~ t \tilde{C}_t C~t,这个向量可能会被加入到细胞状态中。
    • 如下图为输入门结构和计算公式
      在这里插入图片描述
  4. 细胞状态更新

    • 旧的细胞状态 C t − 1 C_{t-1} Ct1 通过遗忘门和输入门的作用,更新为新的细胞状态 C t C_t Ct
    • 下图为更新结构图和计算公式
      在这里插入图片描述
  5. 输出门(Output Gate)

    • 输出门决定了基于细胞状态的当前输出是什么。首先,一个sigmoid层决定细胞状态的哪些部分需要输出。然后,细胞状态通过tanh处理(将其值规范化到-1到1之间),再与sigmoid层的输出相乘,最终得到当前时间步的输出 h t h_t ht
    • 下图为输出门的结构图和计算公式
      在这里插入图片描述

三、 LSTM的优势

  • 长期依赖:LSTM能够捕获序列数据中的长期依赖关系,这是传统RNN难以做到的。
  • 梯度问题:通过引入门机制,LSTM有效地缓解了RNN在处理长序列时容易出现的梯度消失或梯度爆炸问题。

四、 应用场景

LSTM在多种序列预测任务中表现出色,包括但不限于:

  • 自然语言处理:如机器翻译、文本生成、情感分析等。
  • 时间序列预测:如股票价格预测、天气预测等。
  • 语音识别:将语音信号转换为文本。
  • 推荐系统:基于用户历史行为预测未来兴趣。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值