RNN(反馈神经网络)之LSTM学习记录
RNN反馈神经网络也称循环神经网络,每个时刻网络的输出都可以在下一时刻直接作用到自身,及当前时刻网络的最终结果是该时刻的输入信息与所有历史信息的共同作用的结果,因此RNN可以处理时间序列的信息。但随着网络的增加,神经元个数的不断增加,RNN在实际训练时常常出现梯度消失和梯度爆炸的问题,导致网络最终无法正常训练。于是出现了LSTM(Long Short-Term Memory)长短时序记忆,通过门控制和更新细胞状态将短期记忆与长期记忆结合起来,解决了神经网络中长期依赖问题,让网络能够默认记忆长期信息。
LSTM神经元包含输入门i、遗忘门f、细胞状态C、输出门O,通过门和细胞状态来控制长短期记忆。其计算过程可以表示表示为公式(1)到(6)其中h t-1为t-1时刻的隐藏层输出,C t-1为t-1时刻的细胞状态,x t为t时刻的输入信息,w为权值,b为偏置值,σ和tanh为激活函数。公式(1)中,输入门t时刻的信息i t为上一时刻h t-1和t时刻的输入信息x t的结合,公式(2)通过h t-1和x t计算得到t时刻的候选细胞状态