LSTM(长短是记忆)是用来处理时序数据,是一个递归神经网络,能够解决长序依赖问题的有效技术。是通过对循环层的刻意设计来避免长期依赖的问题和梯度消失的问题。它可以很好的对历史信息进行记录学习,在自然语言及语音处理中广泛应用。
LSTM通过给简单的循环神经网络增加记忆以及控制门,增强了它们处理距离依赖问题的能力。
核心思想:
LSTM的关键在于细胞的状态整个(绿色的图表示的是一个cell),和穿过细胞的那条水平线。
细胞状态类似于传送带。直接在整个链上运行,只有一些少量的线性交互。信息在上面流传保持不变会很容易。
应用:
(1) 解决梯度消失问题
(2) 处理长序依赖问题
(3) 图像分析
(4) 文章摘要
(5) 语音识别
(6) 图像识别
(7) 手写识别
LSTM是RNN的变体,它能解决RNN的梯度消失的问题,比RNN记忆时间长
LSTM与RNN的区别
LSTM算法中加入了一个判断信息有用与否的“ 处理器 ” 叫 “ cell ”,cell具有记忆能力并里面有三个门:
(1) 输入门
(2) 遗忘门
(3) 输出门
遗忘门:
在我们 LSTM 中的第一步是决定我们会从细胞状态中丢弃什么信息。
这个决定通过一个称为