如何搭建LSTM(pytorch版)

一 、单向LSTM

0.导入包

import torch

1.rnn = torch.nn.LSTM(input_size,hidden_size,num_layers)

rnn = torch.nn.LSTM(10, 20, 2)  #(input_size,hidden_size,num_layers)

括号里面第一个参数input_size是输入向量的长度,第二个参数hidden_size是隐藏层向量的维度,第三个参数num_layers代表循环层的数量。

第三个参数num_layers不太好理解,可以通过下图理解一下:
在这里插入图片描述
一般num_layers默认为1,当num_layers为2时就是上图画的这样了,将第一层输出的h_t作为第二层的输入,这是在空间上展开的样子,而我们经常能看到的是在时间上展开的样子,如下图(num_layers=1时在时间轴上展开的样子):
在这里插入图片描述
因此我们对LSTM应用反向传播算法时既要计算误差沿时间的传播又要计算误差沿层的传播,而普通的全连接神经网络在做反向传播时只需要计算误差沿层的传播即可,如下图
在这里插入图片描述
所以可以将LSTM与全连接神经网络做个类比:
在这里插入图片描述我们去掉具体的一根根连线可以看到LSTM与全连接神经网络是十分类似的,LSTM只是对普通的隐藏层进行了功能拓展。

2.input = torch.randn(seq_len, batch, input_size)

input = torch.randn(5, 3, 10)#(seq_len, batch, input_size)

生成一个形状 5 ∗ 3 ∗ 10 5*3*10 5310的张量,张量里面的元素是服从标准正态分布的随机数。
张量的通俗理解见链接: link.
第二个参数batch表示将整个输入序列分成了3个小batch(即进行批量化),第一个参数seq_len表示每个小batch需要几个时间步进行处理,第三个参数input_size是输入向量的维度。
batch参考.
这里为什么要就行批量化呢,是为了在使用梯度下降的时候方便一些,既不用每处理一个输入的最小单元就更新参数,也不用等全部输入处理完再更新所有参数。这里可以参考一下小批量梯度下降。

3.两个初始化

h0 = torch.randn(2, 3, 20) #(num_layers,batch,output_size)
c0 = torch.randn(2, 3, 20) #(num_layers,batch,output_size)

4.前向计算

output, (hn, cn) = rnn(input, (h0, c0))

将输入input,和初始的h0,c0放到rnn中就会进行前向计算,算出输出output和hn, cn,当然这里的rnn已经是被实例化的LSTM(见第一个标题)。

在这里插入图片描述

二 、双向LSTM

import torch
rnn = torch.nn.LSTM(input_size=10, hidden_size=20, num_layers=2,bidirectional=True)#(input_size,hidden_size,num_layers)
input = torch.randn(5, 3, 10)#(seq_len, batch, input_size)
h0 = torch.randn(4, 3, 20) #(num_layers,batch,output_size)
c0 = torch.randn(4, 3, 20) #(num_layers,batch,output_size)
output, (hn, cn) = rnn(input, (h0, c0))

只要在torch.nn.LSTM()的括号中加入bidirectional=True就开启了双向LSTM。双向LSTM与单向LSTM的区别在于单向LSTM在计算一个时间步的相关数值时只可以用到前面几步的数值,而双向LSTM既能用到前面几步的数值又能用到后面几步的数值。

比如说在补充一句话的时候:
“我要去__。”
这时用单向LSTM可以推测出空格里面应该填一个地名。但如果残句变为:
“我要__学校。”
这是只根据“我要”这两个字很难推出空格里面内容,但是如果结合“学校”就可以准确推测了。这就是双向LSTM的应用场景了。

在这里插入图片描述 LSTM的输入输出格式.

  • 13
    点赞
  • 92
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 7
    评论
LSTM是一种循环神经网络,可以用于处理序列数据。在PyTorch中,可以使用nn.LSTM模块来构建LSTM网络。首先,需要导入必要的库和数据,例如torch和torch.nn。然后,可以加载数据并进行预处理,包括训练数据和测试数据的准备。接下来,可以搭建LSTM网络,定义网络的输入大小、隐藏层大小和隐藏层数量。最后,可以定义回归层网络,其输入维度等于LSTM的输出维度,输出维度为1。整个网络的结构可以通过forward方法来实现,其中需要将LSTM的输出进行reshape,然后通过回归层网络得到最终的输出。以下是用PyTorch实现LSTM网络的代码示例: ```python import torch from torch import nn class RegLSTM(nn.Module): def __init__(self, input_size, hidden_size, hidden_num_layers): super(RegLSTM, self).__init__() # 定义LSTM self.rnn = nn.LSTM(input_size, hidden_size, hidden_num_layers) # 定义回归层网络,输入的特征维度等于LSTM的输出,输出维度为1 self.reg = nn.Sequential( nn.Linear(hidden_size, 1) ) def forward(self, x): x, (ht, ct) = self.rnn(x) seq_len, batch_size, hidden_size = x.shape x = x.view(-1, hidden_size) x = self.reg(x) x = x.view(seq_len, batch_size, -1) return x ``` 这段代码中,RegLSTM类继承了nn.Module类,重写了init和forward方法来构建LSTM网络。在init方法中,定义了LSTM和回归层网络的结构。在forward方法中,进行了LSTM网络的前向传播,并将输出进行了reshape。最后,返回了输出结果。这样就完成了使用PyTorch搭建LSTM网络的过程。<span class="em">1</span><span class="em">2</span><span class="em">3</span> #### 引用[.reference_title] - *1* *2* [人工智能(Pytorch)搭建模型2-LSTM网络实现简单案例](https://blog.csdn.net/weixin_42878111/article/details/129553278)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v92^chatsearchT0_1"}}] [.reference_item style="max-width: 50%"] - *3* [Pytorch实现的LSTM模型结构](https://blog.csdn.net/weixin_41744192/article/details/115270178)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v92^chatsearchT0_1"}}] [.reference_item style="max-width: 50%"] [ .reference_list ]

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 7
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

comli_cn

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值