Lstm(循环神经网络)

算法模型Lstm(循环神经网络):

简介

LSTM和RNN相似,它们都是在前向传播的过程中处理流经细胞的数据,不同之处在于 LSTM 中细胞的结构和运算有所变化。

LSTM结构:

遗忘门:

遗忘门的功能是决定应丢弃或保留哪些信息。来自前一个隐藏状态的信息和当前输入的信息同时传递到 sigmoid 函数中去,输出值介于0和1之间,越接近0意味着越应该丢弃,越接近 1 意味着越应该保留。如图遗忘门:
在这里插入图片描述

遗忘门图
公式:f_t=σ(W_f*[h_(t-1),x_t ]+b_f)

遗忘门的输入信息,分别是ht-1,xt,从公式上我们可以看到是这两个值与权重矩阵Wf相乘,我们可以理解为ht-1与xt的拼接,拼接以后再与Wf相乘,然后加上一个偏置bf,最后经过一个激活函数sigmoid,使得线性变换变成非线性变换,此时ft的取值为(1,0),这个值决定了Ct-1的值是否被记忆或者遗忘,或者说记住多少,这就是这个遗忘门的作用。

输入门:

输入门用于更新细胞状态。首先将前一层隐藏状态的信息和当前输入的信息传递到 sigmoid 函数中去。将值调整到 0~1 之间来决定要更新哪些信息。0 表示不重要,1 表示重要。
其次还要将前一层隐藏状态的信息和当前输入的信息传递到 tanh 函数中去,创造一个新的侯选值向量。最后将 sigmoid 的输出值与 tanh 的输出值相乘,sigmoid 的输出值将决定 tanh 的输出值中哪些信息是重要且需要保留下来的。
如图输入门:
在这里插入图片描述
输入门图
公式:i_t=σ(W_i*[h_(t-1),x_t ]+b_i)C ̂_t=tanh⁡(W_C*[h_(t-1),x_t ]+b_C)

it和ft公式是一样的,这就说明,it也具有遗忘的功能,比如,Ct-1在遇到ft的时候,ft决定保留Ct-1的记忆,则此时,it则决定着对Ct的遗忘能力,Ct是LSTM需要记忆的新的值

记忆单元:

如图 记忆单元:
在这里插入图片描述
记忆单元图
公式C_t=f_t*C_(t-1)+i_t*C ̂_t

Ct-1遗忘剩余的部分,与新的要记忆的部分C~t相加,就是要输出的Ct

输出门:

输出门用来确定下一个隐藏状态的值,隐藏状态包含了先前输入的信息。首先,我们将前一个隐藏状态和当前输入传递到sigmoid函数中,然后将新得到的细胞状态传递给tanh函数。
最后将tanh的输出与sigmoid的输出相乘,以确定隐藏状态应携带的信息。再将隐藏状态作为当前细胞的输出,把新的细胞状态和新的隐藏状态传递到下一个时间步长中去。
图 输出门:
在这里插入图片描述

输出门图
公式:O_t=σ(W_o*[h_(t-1),x_t ]+b_o)h_t=O_t*tanh⁡(C_t)

最后来到了输出门,本次输出的结果就从这个地方输出,我们可以看到ht是由Ot与tanh(Ct) 相乘得来,也就是说本次需要多少为我所用的含义。
如图6LSTM结构图:
在这里插入图片描述

LSTM结构图

LSTM循环神经网络(Long Short-Term Memory Recurrent Neural Network)是一种特殊的循环神经网络结构,用于处理时间序列数据。LSTM网络通过引入记忆单元和门控机制,解决了传统循环神经网络中的梯度消失和梯度爆炸问题,并且具有更强的记忆能力。 LSTM网络的核心是记忆单元,记忆单元可以记住和遗忘信息。每个记忆单元由一个细胞状态(cell state)和三个门控单元(输入门、遗忘门和输出门)组成。输入门决定了何时更新细胞状态,遗忘门决定了何时忘记过去的信息,输出门决定了何时输出当前的信息。这些门控单元通过对输入数据的加权求和和激活函数的处理来控制信息的流动。 LSTM网络的另一个重要特点是它可以处理双向序列。这是通过将两个LSTM网络堆叠起来实现的,一个网络从前向后处理输入序列,另一个网络从后向前处理输入序列。这种双向结构可以更好地捕捉序列中的前后依赖关系。 因此,LSTM循环神经网络是一种具有长期记忆能力和门控机制的网络结构,适用于处理时间序列数据,并且可以通过堆叠和双向结构增强其性能。<span class="em">1</span><span class="em">2</span><span class="em">3</span> #### 引用[.reference_title] - *1* *2* *3* [深度学习笔记 9 循环神经网络RNNLSTM)](https://blog.csdn.net/qq_41134483/article/details/127415813)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v93^chatsearchT3_2"}}] [.reference_item style="max-width: 100%"] [ .reference_list ]
评论 2
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值