初始化
config是配置文件
self.lstm=nn.LSTM(config.hidden_size,config.rnn_hidden_size,config.num_layers,batch_first=True,dropout=config.dropout,bias=True,bidirectional=True)
参数
input_size :输入数据的形状
hidden_size:LSTM网络每层节点的LSTM节点数量
num_layer:LSTM网络的网络层数
bias:LSTM是否包含bias
batch_first:输入数据的第一个维度是否代表batch编号
dropout:dropout比例
bidirectional:是否使用双向LSTM网络
**如果 bidirectional 参数为True,则LSTM的的输出的最后一个维度为 input_size*2,因为双向LSTM会将两个LSTM网络的输入拼接在一起**
**
nn.softmax()
**
参考:
https://blog.csdn.net/weixin_40875443/article/details/110528581
**
torch的tensor加维度和减维度,torch.squeeze()和torch.unsqueeze()
**
torch.squeeze(input, dim = None, out = None)
在默认参数条件下,如果input的某些维度大小为1,经过压缩后会把相应维度给删除;如果给定了dim的值且对应维度上的值不为1,则不对原tensor进行降维,只能是对应维度的值为1时才会降维。
import torch
x = torch.arange(6).view(2,1,3)
x_1 = torch.squeeze(x) #删除所有维度中等于1的维度
x_2= torch.squeeze(x,1)#删除第二维 因为维度从0(第一维)开始
#维度中没有等于1的维度,就保持原tensor不变
对应的,torch.unsqueeze()函数是一个升维的函数,需要给出指定位置来增加维度。
import torch
a = torch.tensor([ 24, 44, 91, 115, 133])
print(a.unsqueeze(1))
tensor([[ 24],[ 44],[ 91],[115], [133]])