Keras深度学习实战(29)——长短时记忆网络详解与实现
0. 前言
长短时记忆网络 (Long Short Term Memory
, LSTM
),顾名思义是具有记忆长短期信息能力的神经网络,解决了循环神经网络 (Recurrent neural networks
, RNN
) 梯度爆炸/消失的问题,是建立在循环神经网络上的一种新型深度学习的时间序列模型,它具有高度的学习能力与模拟能力,具有记忆可持续性的特点,且能预测未来的任意步长。本文首先介绍了 RNN
模型的局限性,从而引入介绍长短时记忆网络 (Long Short Term Memory
, LSTM
) 的基本原理,最后通过实现 LSTM
进行深入了解。
1. RNN 的局限性
我们首先可视化 RNN
在考虑多个时刻做出预测时的情况,如下所示,随着时间的增加,早期输入的影响会逐渐降低:
更具体的,我们也可以通过公式得到相同的结论,例如我们需要计算第 5
个时刻网络的中间状态: