在LSTM的文章中最出名文章之一就是 Christopher Olah 的博文 感觉这篇博客图画的非常棒,公式也写的很清楚,但是缺失一些感性理解。
自己在看了七月在线寒小阳和练数成金对于LSTM的讲解,对于LSTM有了更深的理解,写一篇博客总结下。
目录
RNN引出LSTM的感性认知
RNN解决了对之前的信息保存的问题。但是存在长期依赖的问题,也就是说,记忆量容量有限,间隔不断增大时,RNN 会丧失学习到连接如此远的信息的能力。这才引出了LSTM
先感性的理解下LSTM和RNN的区别:
- LSTM的‘‘“记忆细胞’’被改造了
- LSTM 改记忆的信息会一直传递,不该记得会被"门"截断
RNN的图示:
RNN的‘记忆细胞’图示:
LSTM的‘记忆细胞’图示:
LSTM原理(理性认知)
第一步:忘记门
决定从“细胞状态”中丢弃什么信息