LSTM输入输出理解

LSTM单元计算

在这里插入图片描述
图中虽然有3个LSTM单元,但是实际上只有一LSTM单元A,这里计算过程是假设输入的时间序列是3,则首先输入样本 x 0 x_0 x0,LSTM初始状态 c 0 c_0 c0, h 0 h_0 h0得到LSTM的状态 c 1 c_1 c1 h 1 h_1 h1,此时在同一个LSTM单元输入 x 1 x_1 x1 c 1 c_1 c1 h 1 h_1 h1,得到 c 2 c_2 c2 h 2 h_2 h2,在同一个LSTM单元输入 x 2 x_2 x2 c 2 c_2 c2 h 2 h_2 h2,得到 h 3 h_3 h3 c 2 c_2 c2,此时完成了一次LSTM的forward计算,然后才开始进行反向梯度下降更新参数。
LSTM核心记忆单元是cell state,他存储着经历过的信息。
在这里插入图片描述

遗忘门

通过遗忘门控制是否保留之前的记忆C。
在这里插入图片描述
遗忘门是以上一时刻的LSTM单元输出h和当前时刻的样本输入x拼接成为新的输入变量,经过一层全连接层计算,在激活函数sigmod函数变为值范围[0,1]的数组。

输入门

输入门控制当前时刻的样本输入x是否加入细胞状态记忆c中。
在这里插入图片描述
输入门同样以上一个时刻LSTM神经元的输出h和当前时刻的样本x拼接成新的变量,经过一成全连接层计算和sigmod激活函数,得到[0,1]范围的门控制值。
样本信息,需要经过一层全连接层和tanh函数的处理,得到信息的样本信息。
在这里插入图片描述
该图就是将以前的状态信息和当前新的信息进行相加,得到新的细胞状态记忆,其中用遗忘门和输入门分别控制两部分信息应该保留的多少程度。

输出门

输出门控制LSTM单元是否要输出当前的细胞状态信息c。
在这里插入图片描述
输出门和其他门计算一样,输出的信息需要先经过tanh激活函数后再输出。

完整公式

在这里插入图片描述

多层LSTM网络

在这里插入图片描述
多层LSTM其计算过程以与单层类似,第一层LSTM以输入的样本x和初始化的 h 0 , c 0 h_0,c_0 h0,c0作为输入进行计算,之后的LSTM以上一层LSTM的输出 h h h代替样本x,与上一时刻同层次的LSTM的 h , c h,c h,c输入进行计算。
最终,output存储了每个时刻样本x输入得到的最后一层LSTM的输出h的集合,若输入时序长度为5,隐层神经元数(门计算时全连接层的隐层神经元数)为3,则一个序列计算后,得到的output的大小就是(5,3),与LSTM层数无关。如果是batch_size=10,那么就是(10,5,3)。通常情况下我们只要最后一个时刻的输出值,即output[:,-1,:]的值。
h n h_n hn得到的是最后一个时刻x输入,每层LSTM输出h的集合。假设共有4层LSTM,隐层神经元个数为3,则一个序列计算后,得到的 h n h_n hn大小就是(4,3),与序列大小无关,若batch_size=10,那么就是(10,5,3)。
这里可以看到,output[:,-1,:]与 h n h_n hn[:,-1,:]是相等的,都是最后一个样本的最后一层LSTM的输出。

pytorch的LSTM输入输出

在这里插入图片描述
torch.nn.LSTM(样本的输入维度,隐层神经元个数,LSTM的层数)
input(序列长度,批大小,样本输入维度)pytorch默认第0维是序列大小
输出out(序列长度,批大小,隐层神经元数);
hn大小(LSTM层数,批大小,隐层神经元个数);
cn大小(LSTM层数,批大小,隐层神经元个数);
在这里插入图片描述

  • 17
    点赞
  • 96
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
多输入多输出的LSTM是一种用于处理数据回归预测问题的模型。它可以通过输入多个特征向量来预测多个目标值。使用Matlab可以实现这个模型。 在构建LSTM模型之前,我们需要理解LSTM的原理。LSTM是一种循环神经网络,通过使用门机制来控制信息的流动。其中,Forget gate用于决定哪些信息应该被忘记,Input gate用于决定哪些新信息应该被添加,Output gate用于决定输出的值。这些机制使得LSTM能够有效地处理时间序列数据等问题。 首先,我们需要使用Matlab编写代码来构建LSTM模型。代码中需要包含LSTM层、全连接层和损失函数等。然后,我们可以使用训练数据对模型进行训练。在训练过程中,我们可以使用优化算法来最小化损失函数,以提高模型的准确性。 在模型训练完成后,我们可以使用该模型对新的数据进行预测。通过将输入数据输入到LSTM模型中,我们可以得到多个目标值的预测结果。 如果你对多输入多输出的LSTM模型感兴趣,你可以参考上述引用的博客文章,其中详细介绍了如何使用Matlab实现该模型,并提供了相应的实战项目和代码。<span class="em">1</span><span class="em">2</span><span class="em">3</span> #### 引用[.reference_title] - *1* *2* [LSTM多输入多输出解决数据回归预测问题matlab](https://blog.csdn.net/qq_66726657/article/details/129148370)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v92^chatsearchT0_1"}}] [.reference_item style="max-width: 50%"] - *3* [Maltab基于长短期记忆神经网络LSTM)的多输入多输出分类任务实现——附代码](https://blog.csdn.net/widhdbjf/article/details/129181691)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v92^chatsearchT0_1"}}] [.reference_item style="max-width: 50%"] [ .reference_list ]

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值