import torch
import torch.nn as nn
# GRU model
gru = nn.GRU(input_size=1, hidden_size=1, batch_first=True)
data = [torch.tensor([9.]),
torch.tensor([1., 2., 3., 4.]),
torch.tensor([5., 6.])]
seq_len = [1, 4, 2]
# padding the sequence
pad_data = torch.nn.utils.rnn.pad_sequence(data, batch_first=True).float().unsqueeze(2)
print('padding data:')
print(pad_data)
# pack data
pack_data = torch.nn.utils.rnn.pack_padded_sequence(pad_data, seq_len, batch_first=True, enforce_sorted=False)
output, hidden = gru(pack_data)
print('output of the model:')
print(output)
# pack the output
output, _ = torch.nn.utils.rnn.pad_packed_sequence(sequence=output, batch_first=True)
print('pack the output:')
print(output)
pytorch中的pad_sequence、pack_padded_sequence和pad_packed_sequence的使用
于 2023-04-24 10:36:32 首次发布
该文展示了如何在PyTorch中利用GRU模型处理不同长度的序列数据。首先定义了一个GRU模型,然后对输入数据进行padding,使用`pad_sequence`函数使其适合批量处理。接着,将padding后的数据用`pack_padded_sequence`打包,经过GRU模型得到输出,最后再使用`pad_packed_sequence`对模型输出进行解包。
摘要由CSDN通过智能技术生成