【神经网络】LSTM

LSTM是一种特殊RNN,设计有输入门、遗忘门和输出门来解决长序列训练中的梯度问题。细胞状态Ct用于保存和传递状态信息,门控结构允许信息有选择地通过,增强模型记忆能力。这种架构在需要长期记忆的任务中表现出色,但参数较多,训练复杂。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

1.什么是LSTM

        长短期记忆(Long short-term memory, LSTM)是一种特殊的RNN,主要是为了解决长序列训练过程中的梯度消失和梯度爆炸问题。简单来说,相比普通的RNN,LSTM能够在更长的序列中有更好的表现。

        LSTM区别于RNN地方,主要就在于它在算法中加入了一个判断信息有用与否的"处理器",这个处理器作用的结构被称为cell。一个cell当中被放置了三扇门,分别叫做输入门、遗忘门和输出门。一个信息进入LSTM的网络当中,可以根据规则来判断是否有用。只有符合算法认证的信息才会留下,不符的信息则通过遗忘门被遗忘。

2.LSTM的优势

2-1 LSTM架构

        相比于RNN,LSTM的结构增加了三个门“遗忘门”、“输入门”、“输出门”。LSTM靠着一些“门”结构让信息有选择地影响循环神经网络中每个时刻的状态,所谓“门”结构,就是使用一个sigmoid的全连接层和一个按位做乘法的操作,这两个结合起来就是一个“门”结构。之所以叫“门”结构是因为使用sigmoid作为激活函数的全连接神经网络会输出一个0到1之间的数值,描述当前输入的有多少信息量可以通过这个结构。当门全打开时(sigmoid全连接层输出为1时),全部信息都能通过;当门全部关上时(sigmoid全连接层输出为0时),任何信息不能通过。如下图为LSTM的整体结构图,其中黄色的框代表的是激活函数,其中σ代表sigmoid函数(0-1之间),tanh自然就是tanh函数(-1-1之间);粉色的圆圈代表的是向量之间的运算。 

如下图为LSTM的内部结构图。

    图中ca2e01a80a0220069168f9b012ff4216.png代表遗忘门,cf5bcb9803a46fb739b2800951c1c319.png代表输入门,3091516090d9993be68608a46fdd16f3.png代表输出门。C是memroy cell,存储记忆信息。681ac60ef0697ba97c40ebbbff9872d3.png代表上一时刻的记忆信息,3802974735f2ec4406ecb0f40bb75db7.png代表当前时刻的记忆信息,h是LSTM单元的输出,5a90fed5f45bb9b10a9202b28941df7a.png是前一刻的输出。

2-2 LSTM结构

2-2-1 细胞状态

        LSTM的关键是细胞状态(直译:cell state),表示为 Ct ,用来保存当前LSTM的状态信息并传递到下一时刻的LSTM中。当前的LSTM接收来自上一个时刻的细胞状态C_{t-1} ,并与当前x_{t}LSTM接收的信号输入x_{t} 共同作用产生当前LSTM的细胞状态C_{t} 。      

        在LSTM中,采用专门设计的“门”来引入或者去除细胞状态 Ct 中的信息。门是一种让信息选择性通过的方法。有的门跟信号处理中的滤波器有点类似,允许信号部分通过或者通过时被门加工了;有的门也跟数字电路中的逻辑门类似,允许信号通过或者不通过。这里所采用的门包含一个sigmod神经网络层和一个按位的乘法操作。

2-2-2遗忘门 

       遗忘门决定了细胞状态C_{t-1} 中的哪些信息将被遗忘。 遗忘门由一个sigmod神经网络层和一个按位乘操作构成。

        遗忘门包含一个sigmod神经网络层(黄色方框,神经网络参数为W_{f}b_{f}),接收t时刻的输入信号x_{t}t-1时刻LSTM的上一个输出信号h_{t-1},这两个信号进行拼接以后共同输入到神经网络层sigmod中,然后输出信号f_{t} ,f_{t}是0-1到之间的数值,并与C_{t-1}相乘来决定C_{t-1}中的哪些信息将被保留,哪些信息将被舍弃。具体公式如下:

        C_{t-1}= [0.5,0.6,0.7],h_{t-1} = [0.3,0.8,0.69],x_{t} = [0.2,1,3,0.7] ,那遗忘门的输入信号就是h_{t-1}x_{t}的组合,[h_{t-1},x_{t}] = [0.3,0.8,0.69,0.2,1.3,0.7],然后通过sigmod神经网络层输出每个元素都是处于0-1之间的向量f_{t} = [0.5,0.1,0.8]C_{t-1}按位相乘。

 2-2-3 输入门

        输入门的作用与遗忘门相反,它将决定新输入的信息x_{t}h_{t-1}中哪些信息将被保留。输入门包含两部分,一个是sigmod神经网络层(神经网络参数为W_{i}b_{i})和一个tanh神经网络层(神经网络参数为W_{c}b_{c})

        sigmod神经网络层的作用很明显,跟遗忘门一样,它接收 h_{t-1}x_{t}作为输入,然后输出一个0到1之间的数值i_{t}来决定哪些信息需要被更新; 

        Tanh神经网络层的作用是将输入的 h_{t-1}x_{t}整合,然后通过tanh神经网络层来创建一个新的状态候选向量\tilde{C_{t}}\tilde{C_{t}}的值范围在-1到1之间。 

        输入门的输出由上述两个神经网络层的输出决定i_{t} 与\tilde{C_{t}}相乘来选择哪些信息将被新加入到  时刻的细胞状态C_{t}中。 

2-2-4 细胞状态更新

        通过遗忘门和输入门,将可以细胞状态 Ct更新。

        细胞状态更新公式如下: 

     将遗忘门的输出f_{t} 与上一时刻的细胞状态C_{t-1}相乘来选择遗忘和保留一些信息,将输入门的输出与从遗忘门选择后的信息加和得到新的细胞状态 C_{t}。这就表示t时刻的细胞状态C_{t}已经包含了此时需要丢弃的t-1时刻传递的信息和t时刻从输入信号获取的需要新加入的信息i_{t}*\tilde{C_{t}}。 C_{t}将继续传递到t+1时刻的LSTM网络中,作为新的细胞状态传递下去。  

2-2-5 输出门

        输出门用来控制单元状态C_{t}有多少输入到LSTM的当前输出h_{t}。由sigmod神经网络层tanh激活函数以及按位乘操作组成。

         h_{t-1}x_{t}作为输入,经过sigmod的神经网络层(神经网络层的网络参数为W_{0}b_{0}),然后输出一个0到1之间的数值o_{t}; 

            C_{t}经过一个tanh激活函数,此处需要注意的是(tanh是作为激活函数而不是神经网络层)得到一个在-1到1之间的树枝,并与o_{t}相乘得到输出信号h_{t}。之后h_{t}作为下一时刻的输入信号传递到下一阶段。

3.后记

        LSTM通过门控状态来控制传输状态,记住需要长时间记忆的,忘记不重要的信息;而不像普通的RNN那样只能够“呆萌”地仅有一种记忆叠加方式。对很多需要“长期记忆”的任务来说,尤其好用。但也因为引入了很多内容,导致参数变多,也使得训练难度加大了很多。

### 循环神经网络 LSTM 的原理 LSTM 是一种特殊类型的 RNN,能够学习长期依赖信息。其核心在于通过引入“门”的概念来控制信息流动,从而有效解决了传统 RNN 中的梯度消失问题[^1]。 #### 门结构详解 LSTM 使用三种主要的门结构——遗忘门、输入门和输出门: - **遗忘门**决定哪些信息应该被丢弃; - **输入门**负责更新细胞状态中的新信息; - **输出门**则决定了最终输出的内容。 这种设计使得 LSTM 可以有选择性地记住重要信息并忘掉无用的数据[^3]。 ```python import torch.nn as nn class LSTM(nn.Module): def __init__(self, input_size=50, hidden_layer_size=100, output_size=1): super().__init__() self.hidden_layer_size = hidden_layer_size self.lstm = nn.LSTM(input_size, hidden_layer_size) self.linear = nn.Linear(hidden_layer_size, output_size) def forward(self, input_seq): lstm_out, _ = self.lstm(input_seq.view(len(input_seq), 1, -1)) predictions = self.linear(lstm_out[-1].view(1, -1)) return predictions ``` ### 实现方法 上述代码展示了如何利用 PyTorch 来构建一个简单的 LSTM 模型。该模型接收时间序列作为输入,并返回相应的预测值。此过程涉及定义层大小、初始化权重以及前向传播操作等步骤。 ### 应用场景 随着技术进步,LSTM 已经广泛应用于多个领域: - 自然语言处理(NLP),如机器翻译、情感分析等; - 时间序列预测,比如股票价格走势预估; - 生物信息学中基因表达模式识别等领域; 未来还将继续看到 LSTM 向更多新兴方向发展,例如量子计算与强化学习等方面的应用拓展。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值