今天看了李沐课程的第十二课,主要学习到了RNN的具体结构,以及弄明白了RNN中隐层的具体作用。
图中的前两行表示的是RNN中的H(隐层)、Y(输出)的具体计算方式
从图中我们可以得出,是先由输入Xt和上个隐层状态Ht-1得到本层的隐层Ht,再由本层的Ht得到本层的输出Yt。
隐层的具体作用我的理解是:循环神经网络使用隐层来记录前面看到的数据来帮助当前预测。
比如图中,在第一个节点输入“你”,然后在预测“好”的时候,同时输出了一个隐层状态H1。我们可以用这个隐层H1和下一个输入“好”来一起预测“世”,在预测“世”的同时输出一个隐层状态。如此循环往复下去