PyTorch版LSTM遇到的问题

1.Pack_padded_sequenceValueError

解决方法:

https://discuss.pytorch.org/t/char-lstm-for-sequence-tagging/12802

https://discuss.pytorch.org/t/pack-padded-sequence-valueerror/3261/3

input data是LongTensor, Pack_padded_sequence 的参数input_data需要在此之前将LongTensor转为FloatTensor,  reshape the input_var intoshape seq length X batch X 1. 并且每个batch中input data是按照length由大到小排列的。

length需要在Pack_padded_sequence引用时用length.data().numpy()

 

2. LSTM, RuntimeError:bool value of Variable objects containing non-empty torch.LongTensor isambiguous

input_data需要在此之前将LongTensor转为FloatTensor, reshape the input_var into shape seqlength X batch X 。

3.pad_packed_sequence:不同batch得到的unpacked_out_xsize不同,无法进行后面的一致性的操作

 



评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值