如果说CNN是神经网络在图像处理中应用最多的方法,那么RNN就是用在自然语言处理领域用得最多的方法。接下来的几节就用来学习下RNN的知识,以及怎么用pytorch来搭建一个RNN网络。
博客中的图片来自李宏毅老师的课程,课程中对于LSTM的讲解真的非常清晰,可以多观看几遍。同时也有篇很好的博客可以参考:博客。
1.RNN的介绍
RNN也叫循环神经网络,全称为Recurrent Neural Network,它是一种对序列型数据进行处理的深度模型。它的原理框架如下图展示的一样:
它通过记忆单元(Memory Cell) 来储存上个样本的输出值或中间值,下一时刻的输出不仅与输入有关,还与上一时刻储存的值有关,因此RNN是具有记忆性的。
关于RNN的种类,先简单介绍3种,分别为:Elman Network、Jordan Network、Bidirectional RNN。
-
Elman Network: 它将recurrent层的输出经过时延后作为下一时刻这一层的输入的一部分,然后recurrent层的输出同时送到网络后续的层,比如最终的输出层。
-
Jordan Network: 直接把整个网络最终的输出(输出层的输出)经过时延后反馈回网络的输入层。
-
Bidirectional RNN: 双向的循环神经网络,比如一个句子分别进行正序和倒序的分析,将结果进行整合