2019-06-29上午
cs224n assignment4
A 为什么要进行pack?!就是对pad_token的删除及填充操作,避免rnn计算不必要的pad-token
1,pack_padded_sequence(删去pad-token)-官网链接
1_a,具体形式
torch.nn.utils.rnn.pack_padded_sequence(input, lengths, batch_first=False, enforce_sorted=True)
1_b,使用方法&参数含义
参数 | 意义 |
---|---|
input (tensor) | T x B x *张量,T是batch中最长序列的长度,B是batch_size |