RNN
由于CNN无法很好的学习到有序数据(比如时间)之间的联系,所以提出RNN主要用于对序列数据的学习。
原理如下:
主要是横向传递了一个参数a(1)(就是前一次网络通过激活函数之后输出的a(1)),和一个超参数,所以a和
的公式为:
RNN前向传播示意图:
一个很酷的名字:时间反向传播 (Backpropagation through time)
反向传播是怎样在循环神经网络中运行的
反向传播地计算方向(上图红色箭头所指方向)与前向传播基本上是相反的
到这里就可以通过红色箭头的方向,一步步求导最终求得最初的dw、db,用梯度下降法来更新参数w、b,使loss朝着更低的方向去。
RNN反向传播示意图: