【PyTorch学习笔记】23:nn.LSTM和nn.LSTMCell的使用

1 nn.LSTM

该模块一次构造完若干层的LSTM。

1.1 构造方法

使用nn.LSTM可以直接构建若干层的LSTM,构造时传入的三个参数和nn.RNN一样,依次是:
[ f e a t u r e _ l e n , h i d d e n _ l e n , n u m _ l a y e r s ] [feature\_len,hidden\_len,num\_layers] [feature_len,hidden_len,num_layers]

其中hidden_len既用于隐藏状态 h t h_t ht的尺寸,也用于记忆单元 C t C_t Ct的尺寸。实际上,两者的shape是一样的,都是 [ n u m _ l a y e r s , b a t c h , h i d d e n _ l e n ] [num\_layers,batch,hidden\_len] [num_layers,batch,hidden_len]

1.2 forward方法

回顾一下nn.RNN的forward方法,它是:
o u t , h t = r n n ( x , h 0 ) out,h_t = rnn(x,h_0) out,ht=rnn(x,h0)

而对于nn.LSTM也是类似的,无非是要多提供初始的 C 0 C_0 C0,并在最终多得到一个 C t C_t Ct
o u t , ( h t , C t ) = l s t m ( x , ( h 0 , C 0 ) ) out, (h_t, C_t) = lstm(x,(h_0,C_0)) out,(ht,Ct)=lstm(x,(h0,C0))

其中, x x x仍然是一次性将当前batch所有seq_len个时刻的样本都输入,其shape是 [ s e q _ l e n , b a t c h , f e a t u r e _ l e n ] [seq\_len,batch,feature\_len] [seq_len,batch,feature_len]

在任意 t t t时刻的 h t h_t ht C t C_t Ct两类Memory其shape都是 [ n u m _ l a y e r s , b a t c h , h i d d e n _ l e n ] [num\_layers,batch,hidden\_len] [num_layers,batch,hidden_len]

最终的输出 o u t out out同样是在所有时刻最后一层上的输出(特别注意,LSTM中的输出是 h h h不是 C C C),因此是将feature_len规约成了hidden_len那么长,所以其shape是 [ s e q _ l e n , b a t c h , h i d d e n _ l e n ] [seq\_len,batch,hidden\_len] [seq_len,batch,hidden_len]

1.3 例子
import torch
from torch import nn

# 如可以解释成:4层的LSTM,输入的每个词用100维向量表示,隐藏单元和记忆单元的尺寸是20
lstm = nn.LSTM(input_size=100, hidden_size=20, num_layers=4)

# 输入的x:其中batch是3可表示有三句话,seq_len=10表示每句话10个单词,feature_len=100表示每个单词表示为长100的向量
x = torch.randn(10, 3, 100)

# 前向计算过程,这里不传入h_0和C_0则会默认初始化
out, (h, c) = lstm(x)
print(out.shape)  # torch.Size([10, 3, 20]) 最后一层10个时刻的输出
print(h.shape)  # torch.Size([4, 3, 20]) 隐藏单元
print(c.shape)  # torch.Size([4, 3, 20]) 记忆单元

2 nn.LSTMCell

该模块构建LSTM中的一个Cell,同一层会共享这一个Cell,但要手动处理每个时刻的迭代计算过程。如果要建立多层的LSTM,就要建立多个nn.LSTMCell

2.1 构造方法

构造方法和nn.LSTM类似,依次传入feature_len和hidden_len,因为这只是一个计算单元,所以不涉及层数。

2.2 forward方法

回顾一下nn.RNNCell的forward方法,它是:
h t = r n n c e l l ( x , h t − 1 ) h_t = rnncell(x,h_{t-1}) ht=rnncell(x,ht1)

即上一时刻的输出 h t − 1 h_{t-1} ht1nn.RNNCell前向计算得到这一时刻的 h t h_t ht

对于nn.LSTMCell也是类似,但因为LSTM计算单元中还涉及对上一时刻的记忆 C t − 1 C_{t-1} Ct1的使用,所以是:
h t , C t = l s t m c e l l ( x t , ( h t − 1 , C t − 1 ) ) h_t,C_t = lstmcell(x_t,(h_{t-1},C_{t-1})) ht,Ct=lstmcell(xt,(ht1,Ct1))

因为输入 x t x_t xt只是t时刻的输入,不涉及seq_len,所以其shape是 [ b a t c h , f e a t u r e _ l e n ] [batch,feature\_len] [batch,feature_len]

h t h_t ht C t C_t Ct在这里只是t时刻本层的隐藏单元和记忆单元,不涉及num_layers,所以其shape是 [ b a t c h , h i d d e n _ l e n ] [batch,hidden\_len] [batch,hidden_len]

2.3 一层的例子

每个时刻传入新的输入 x t x_t xt和上一时刻的隐藏单元 h t − 1 h_{t-1} ht1和记忆单元 C t − 1 C_{t-1} Ct1,并把这两个单元更新。

import torch
from torch import nn

# 一层的LSTM计算单元,输入的feature_len=100,隐藏单元和记忆单元hidden_len=20
cell = nn.LSTMCell(input_size=100, hidden_size=20)

# 初始化隐藏单元h和记忆单元C,取batch=3
h = torch.zeros(3, 20)
C = torch.zeros(3, 20)

# 这里是seq_len=10个时刻的输入,每个时刻shape都是[batch,feature_len]
xs = [torch.randn(3, 100) for _ in range(10)]

# 对每个时刻,传入输入x_t和上个时刻的h_{t-1}和C_{t-1}
for xt in xs:
    h, C = cell(xt, (h, C))

print(h.shape)  # torch.Size([3, 20])
print(C.shape)  # torch.Size([3, 20])
2.4 两层的例子

在最底下一层l0层和上面的例子一样,上层还需要接受下层的输出 h t h_t ht作为当前输入,然后同样是依赖本层上一时刻的 h h h C C C更新本层的 h h h C C C

特别要注意DL学习笔记4中学习的LSTM单元的输入输出结构,向上层传递的是 h h h而不是 C C C

import torch
from torch import nn

# 输入的feature_len=100,变到该层隐藏单元和记忆单元hidden_len=30
cell_l0 = nn.LSTMCell(input_size=100, hidden_size=30)
# hidden_len从l0层的30变到这一层的20
cell_l1 = nn.LSTMCell(input_size=30, hidden_size=20)

# 分别初始化l0层和l1层的隐藏单元h和记忆单元C,取batch=3
# 注意l0层的hidden_len=30
h_l0 = torch.zeros(3, 30)
C_l0 = torch.zeros(3, 30)
# 而到l1层之后hidden_len=20
h_l1 = torch.zeros(3, 20)
C_l1 = torch.zeros(3, 20)

# 这里是seq_len=10个时刻的输入,每个时刻shape都是[batch,feature_len]
xs = [torch.randn(3, 100) for _ in range(10)]

# 对每个时刻,从下到上计算本时刻的所有层
for xt in xs:
    h_l0, C_l0 = cell_l0(xt, (h_l0, C_l0))  # l0层直接接受xt输入
    h_l1, C_l1 = cell_l1(h_l0, (h_l1, C_l1))  # l1层接受l0层的输出h为输入

# 最后shape是不变的
print(h_l0.shape)  # torch.Size([3, 30])
print(C_l0.shape)  # torch.Size([3, 30])
print(h_l1.shape)  # torch.Size([3, 20])
print(C_l1.shape)  # torch.Size([3, 20])
好的,我可以为您编写一个双向LSTM类,输入和输出参数与nn.LSTM一致,但是不使用nn.LSTM函数。代码如下: ```python import torch import torch.nn as nn class BiLSTM(nn.Module): def __init__(self, input_size, hidden_size, num_layers=1, bias=True, batch_first=False, dropout=0, bidirectional=True): super(BiLSTM, self).__init__() self.input_size = input_size self.hidden_size = hidden_size self.num_layers = num_layers self.bias = bias self.batch_first = batch_first self.dropout = dropout self.bidirectional = bidirectional # 前向LSTM self.f_lstm = nn.ModuleList() for i in range(num_layers): if i == 0: self.f_lstm.append(nn.LSTMCell(input_size=input_size, hidden_size=hidden_size)) else: self.f_lstm.append(nn.LSTMCell(input_size=hidden_size, hidden_size=hidden_size)) # 后向LSTM if bidirectional: self.b_lstm = nn.ModuleList() for i in range(num_layers): if i == 0: self.b_lstm.append(nn.LSTMCell(input_size=input_size, hidden_size=hidden_size)) else: self.b_lstm.append(nn.LSTMCell(input_size=hidden_size, hidden_size=hidden_size)) def forward(self, input, hx=None): # 初始化前向LSTM的隐状态和记忆状态 h_f = [] c_f = [] for i in range(self.num_layers): h_f.append(torch.zeros(input.size(0), self.hidden_size).to(input.device)) c_f.append(torch.zeros(input.size(0), self.hidden_size).to(input.device)) # 初始化反向LSTM的隐状态和记忆状态 if self.bidirectional: h_b = [] c_b = [] for i in range(self.num_layers): h_b.append(torch.zeros(input.size(0), self.hidden_size).to(input.device)) c_b.append(torch.zeros(input.size(0), self.hidden_size).to(input.device)) # 前向传播 outputs = [] steps = range(input.size(1)) if self.batch_first: steps = range(input.size(0)) for time in steps: x = input[:, time, :] for layer in range(self.num_layers): h_prev_f = h_f[layer] c_prev_f = c_f[layer] h_f[layer], c_f[layer] = self.f_lstm[layer](x, (h_prev_f, c_prev_f)) x = h_f[layer] if self.dropout != 0 and layer != self.num_layers - 1: x = nn.Dropout(self.dropout)(x) if self.bidirectional: # 反向传播 x_b = input[:, -time-1, :] for layer in range(self.num_layers): h_prev_b = h_b[layer] c_prev_b = c_b[layer] h_b[layer], c_b[layer] = self.b_lstm[layer](x_b, (h_prev_b, c_prev_b)) x_b = h_b[layer] if self.dropout != 0 and layer != self.num_layers - 1: x_b = nn.Dropout(self.dropout)(x_b) outputs.append(torch.cat([h_f[-1], h_b[-1]], dim=-1)) else: outputs.append(h_f[-1]) output = torch.stack(outputs, dim=1) return output, (h_f[-1], c_f[-1]) ``` 这个BiLSTM类实现了双向LSTM,输入和输出参数与nn.LSTM一致。我们使用nn.LSTMCell来代替nn.LSTM,手动编写前向和反向传播,并使用nn.ModuleList来实现多层LSTM的叠加。您可以将这个类用于您的深度学习模型中,来实现双向LSTM的功能。
评论 9
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值