之前的DNN(全连接神经网络)和CNN的输入都是固定尺寸的,无法处理时序相关序列问题。引入循环神经网络用于解决有关时序相关的问题,例如nlp中的词性分析,需要联系上下文。
循环神经网络RNN
循环神经网络在层内可以双向传递信息(层与层之间不能)
基本原理
在RNN的隐藏层中,同一个隐藏层中进行信息的自我传递,神经元当前的输出与之前的输出建立联系,记忆前面的信息并用于当前神经元的计算
相关概念
前向传播过程
反向传播过程
应用形式
短期记忆:以当前神经元近的对当前计算影响大,远的影响小
LSTM算法(长短期记忆网络)
门控机制
GRU算法
在LSTM上简化结构