直观理解
https://zhuanlan.zhihu.com/p/30465140(从RNN-——>LSTM)
http://www.jianshu.com/p/9dc9f41f0b29(整合)
代码
http://apaszke.github.io/lstm-explained.html
http://www.csdn.net/article/2015-09-14/2825693,http://blog.csdn.net/lujiandong1/article/details/52671031对第一篇论文解析
推导
简单理解bp的文章:http://www.jianshu.com/p/408ab8177a53
具体推导的文章:http://blog.csdn.net/u010754290/article/details/47167979
(很好,就是有些公式看不了,就找了一篇别人转载的http://blog.csdn.net/jiaobei2354717/article/details/76903055,
前向公式中的定义可看https://www.cnblogs.com/yymn/articles/4969851.html的第5部分
后向中的损失函数可看http://blog.csdn.net/behamcheung/article/details/71911133
手写版可看http://www.voidcn.com/article/p-kxgcyyhe-da.html
本文针对的原始论文,有其他的手写版推导http://blog.csdn.net/lujiandong1/article/details/53188178)
http://blog.csdn.net/hongmaodaxia/article/details/41809341
http://cairohy.github.io/2016/11/23/machine-learning/BP-RNN-%E5%92%8C-LSTM%E6%9A%A8%E3%80%8ASupervised-Sequence-Labelling-with-Recurrent-Neural-Networks-2012%E3%80%8B%E9%98%85%E8%AF%BB%E7%AC%94%E8%AE%B0/
http://www.jianshu.com/p/c904a8436370