pytorch lstm input_size, hidden_size说明

了解了LSTM原理后,一直搞不清Pytorch中input_size, hidden_size和output的size应该是什么,现整理一下

假设我现在有个时间序列,timestep=11, 每个timestep对应的时刻上特征维度是50, 那么input_size就是50
然后说hidden_size
知乎一个图比较好理解
在这里插入图片描述
hidden_size就是黄色圆圈,可以自己定义,假设现在定义hidden_size=64
那么output的size又是多少
再截上面知乎的一个图
在这里插入图片描述
可以看到output是最后一层layer的hidden输出的组合,一层LSTM的话不用考虑layer,就是所有timestep上hidden_size的组合
假设现在batch_size=20, batch_first=True
那么output的size就是(batch, timestep, hidden_size)也就是(20,11,64)

验证一下:

class RNN(nn.Module):
    def __init__(self):
        super(RNN,self).__init__()
 
        self.rnn = nn.LSTM(
            input_size=50,
            hidden_size=64,
            num_layers=1,
            batch_first=True,
        )
 
        self.out = nn.Linear(64,2) #最后时刻的hidden映射
 
    def forward(self,x):
        r_out, (h_n, h_c) = self.rnn(x, None)
        print('lstm out size:')
        print(r_out.shape) #这里输出output的size
        out = self.out(r_out[:,-1,:]) #取最后一个时刻的hidden作输出
        return out

输出:

lstm out size:
torch.Size([20, 11, 64])
评论 9
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

蓝羽飞鸟

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值