本次实验在上次word-embeding基础上使用pytorch+torchtext完成
原理:
-
RNN
-
LSTM
“相较于RNN,LSTM增加了cell state和门控单元从而保存长期依赖的信息,但实际上它并没有完全解决梯度消失问题,只是提供了一个简便的方法解决了模型难以学习长期依赖的问题。尽管如此,
本次实验在上次word-embeding基础上使用pytorch+torchtext完成
原理:
RNN
LSTM
“相较于RNN,LSTM增加了cell state和门控单元从而保存长期依赖的信息,但实际上它并没有完全解决梯度消失问题,只是提供了一个简便的方法解决了模型难以学习长期依赖的问题。尽管如此,