nn.LSTM()关键参数,torch.squeeze()和torch.unsqueeze()

初始化

config是配置文件

self.lstm=nn.LSTM(config.hidden_size,config.rnn_hidden_size,config.num_layers,batch_first=True,dropout=config.dropout,bias=True,bidirectional=True)

参数

input_size :输入数据的形状
hidden_size:LSTM网络每层节点的LSTM节点数量
num_layer:LSTM网络的网络层数
bias:LSTM是否包含bias
batch_first:输入数据的第一个维度是否代表batch编号
dropout:dropout比例
bidirectional:是否使用双向LSTM网络
**如果 bidirectional 参数为True,则LSTM的的输出的最后一个维度为 input_size*2,因为双向LSTM会将两个LSTM网络的输入拼接在一起**

**

nn.softmax()

**
参考:

https://blog.csdn.net/weixin_40875443/article/details/110528581

**

torch的tensor加维度和减维度,torch.squeeze()和torch.unsqueeze()

**

torch.squeeze(input, dim = None, out = None)

在默认参数条件下,如果input的某些维度大小为1,经过压缩后会把相应维度给删除;如果给定了dim的值且对应维度上的值不为1,则不对原tensor进行降维,只能是对应维度的值为1时才会降维。

import torch
x = torch.arange(6).view(2,1,3)
x_1 = torch.squeeze(x) #删除所有维度中等于1的维度
x_2= torch.squeeze(x,1)#删除第二维  因为维度从0(第一维)开始
#维度中没有等于1的维度,就保持原tensor不变

对应的,torch.unsqueeze()函数是一个升维的函数,需要给出指定位置来增加维度。

import torch
a = torch.tensor([ 24,  44,  91, 115, 133])
print(a.unsqueeze(1))

tensor([[ 24],[ 44],[ 91],[115], [133]])

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值