Pytorch,报错size mismatch for embedding_layer.weight: copying a param with shape torch.Size([X, X]),加载模型出错!!!
用LSTM分类时出现错误
词嵌入层69533与79115不匹配
最后发现是词嵌入字典个数出现错误
当前加载的是79115个单词,而load的模型是经过69533个单词训练的模型,修改成之前相同的数据,字典树就是79115和原来一样了,最后模型加载成功!!!
Pytorch,报错size mismatch for embedding_layer.weight: copying a param with shape torch.Size([X, X]),加载模型出错!!!
用LSTM分类时出现错误
词嵌入层69533与79115不匹配
最后发现是词嵌入字典个数出现错误
当前加载的是79115个单词,而load的模型是经过69533个单词训练的模型,修改成之前相同的数据,字典树就是79115和原来一样了,最后模型加载成功!!!