学习阶段所悟,误人子弟概不负责。
RNN
有一个黑盒 f u n c t i o n function function,输入 x x x可以得到 y y y,同时它会将输入的 h h h转成 h ′ h' h′输出。
h ′ h' h′将会作为下一次处理的输入 h h h。
LSTM
在RNN的基础上,多了一组 c t c^t ct, c t − 1 c^{t-1} ct−1,用来保存很久之前的记忆。换句话说, c t c^t ct是长时记忆,变化很慢。 h t h^t ht是短时记忆,在不同节点下往往会有很大的区别。
说到LSTM就不得不提到它的三个门控: