LSTM模型(大白话+公式推导)

LSTM通过记忆细胞和门控结构解决了RNN的梯度消失问题,允许模型选择性地记忆和遗忘信息,提高学习效率。在每个时间步,遗忘门、输入门和输出门协同工作,控制信息流,确保关键信息在长序列中的有效传递。
摘要由CSDN通过智能技术生成

设计思路

  • RNN是想把所有信息都记住;不管是有用的信息还是没用的信息(存在梯度爆炸和梯度消失的问题)例子:复习的时候,整本书都想记下来;导致记忆负担加重;记忆的效果不好;
  • LSTM是设计一个记忆细胞;具备选择性记忆的功能,可以选择记忆重要信息,过滤掉噪声信息,减轻记忆负担(类比于:复习的时候看到考点内的信息就记忆;考点外的知识过滤掉)

前向传播的过程

RNN图

在这里插入图片描述
注意点:1、在循环神经网络(RNN)中,tanh常用作激活函数,tanh是一种非线性函数,它将输入映射到范围在-1到1之间;2、激活函数主要是:引入非线性,以便模型可以学习更加复杂的关系和模式 ;3、隐藏状态是一组表示模型内部状态的向量,它们通过时间步长进行传递和更新(在每个时间步长,当前输入和前一个时间步长的隐藏状态被馈送到RNN中,并生成新的隐藏状态)

LSTM图

在这里插入图片描述
其中LSTM是由两条线串起来的;上面那一条其实就是记忆细胞

单元图

在这里插入图片描述
解释:其中;C表示记忆细胞;h表示一个状态;

  • 通过上述单元后;我们要输出一个新的状态和一个新的记忆细胞;
  • sigma函数的值介于0~1【一个门单元】
  • ft指的是遗忘门;it更新门;ot输出门

结合数学公式了解其内部原理

在这里插入图片描述
在这里插入图片描述

  • 从公式的角度完整的了解其前向传播对过程公式的角度# 结合例子理解LSTM
  • 来讲一个这个单元的各个部分分别做了什么样的事情;所起到的作用又是什么

记忆细胞

  • 也就是在这个时间步当中;我可以通过一些操作来确定我哪一些东西我需要记忆;哪一些我需要忘记掉;
    在这里插入图片描述

  • 在LSTM中的每个时间步里面,都有一个记忆cell,这个东西给予了LSTM选择记忆功能,使得LSTM有能力自由选择每个时间步里面记忆的内容

结合例子讲解

  • 期末考试周
  • 例子中有一个前提假设:我们的脑容量是有限的;意思就是当我考完这个高数之后;我需要尽可能的将我脑子里面和高数有关的内容遗忘;腾出位置给线性代数
  • it门(更新门):让我们去记住和考点知识相关的知识;和考题知识没有关系的知识我们就遗忘掉;
  • 生成Ct
    在这里插入图片描述
  • ot;可能复习到的内容不一定全部都要用到;所以需要用到这个门

LSTM是如何缓解梯度消失的

  • LSTM(长短期记忆网络)是一种循环神经网络,可以通过内部的门控结构来缓解梯度消失问题
  • LSTM包含三个重要的门:输入门、遗忘门和输出门。每个门都有一个sigmoid激活函数来控制信息流量,并且使用逐元素乘法操作来选择性地保留或删除输入数据。此外,LSTM还通过一个称为“细胞状态”的中间变量有效地存储和更新信息。
  • 在LSTM中,梯度可以通过时间反向传播算法进行有效地传递。在反向传播期间,由于门的存在,梯度不会在时间序列的每个步骤中消失或爆炸,因为它们可以限制信息流量。
  • 总之,LSTM能够缓解梯度消失问题,是因为它的门控机制使得信息可以在时间序列中正确地流动,并通过细胞状态得到了良好的保留和更新。

参考

LSTM(Long Short-Term Memory)是一种常用的循环神经网络(Recurrent Neural Network,RNN)的变体,旨在解决传统RNN中的梯度消失和梯度爆炸问题,以及对长期依赖关系的建模能力不足的问题。 LSTM中引入了一个称为"记忆单元"(memory cell)的关键组件,它允许网络在长时间内保持和访问信息。下面是LSTM的基本结构和关键组件: 1. 输入门(Input Gate):决定是否将输入信息加入到记忆单元中。它通过对输入和前一时刻隐状态进行加权求和,并经过一个sigmoid函数输出一个0到1之间的值。 2. 遗忘门(Forget Gate):决定是否将前一时刻的记忆保留到当前时刻。它通过对前一时刻的记忆和当前输入进行加权求和,并经过一个sigmoid函数输出一个0到1之间的值。 3. 更新状态(Update State):根据输入门和遗忘门的输出,更新记忆单元的内容。这里使用了一个tanh函数来生成一个候选记忆单元的值。 4. 输出门(Output Gate):决定当前时刻的隐状态输出。它通过对当前记忆单元和当前输入进行加权求和,并经过一个sigmoid函数输出一个0到1之间的值。 5. 隐状态(Hidden State):根据输出门的输出和当前记忆单元的内容,计算当前时刻的隐状态。这里通过将当前记忆单元的值经过一个tanh函数得到一个新的候选隐状态,然后与输出门的输出相乘得到最终的隐状态。 这些门控制着信息的流动和记忆的更新,使得LSTM能够有效地学习长期依赖关系。通过在时间序列上重复使用LSTM单元,网络可以在不同时间步之间传递信息,并且保持对过去信息的记忆。 希望这个简单的图示和解释能够帮助你理解LSTM模型的原理。
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值