循环神经网络|深度学习(李宏毅)(五)

1.RNN的引出(槽位填充问题)

  • 槽位填充问题
      槽位填充问题:如下图所示,在售票系统中需要将客户的一句话中的信息提取出来填充到对应的槽位下:

槽位填充

  • 词的表示方法
  1. 1-of-N Encoding(独热编码)
      在知道总共有几个词的情况下使用。

独热编码

  1. Beyond 1-of-N encoding

2.1 为独热编码增加“other”维度为独热编码增加“other”维度

2.2 Word hashing
  词向量的每一个维度表示一个序列,如果词中出现该序列则标记为1。

Word hashing

  • 使用前馈神经网络解决槽位填充问题
      按照解决多分类问题的思路使用前馈神经网络来解决槽位填充问题,但是使用前馈神经网络有一定的局限性。
      输入:词向量
      输出:该词属于某一槽位的概率

使用前馈网络解决槽位填充问题

  • 使用前馈神经网络存在的问题

arrive

leave

  由上图可知,Taipei一词属于哪一个槽位还与其上下文有关,因此解决该问题的神经网络需要具有记忆,由此引入了具有记忆的神经网络——循环神经网络(RNN)。

2.循环神经网络(本小节指的是简单RNN)

  • RNN直观的架构
      循环神经网络相当于在全连接网络的隐藏层加入多个“memory”节点,隐藏层的输出值被保存在memory中,由此完成了“记忆”的过程,隐藏层的输入除了输入层的输入以外还包括memory中保存的数据,隐藏层的输出除了要传播到输出层以外还会用于更新memory中的值。其简单的架构图如下:

简单RNN

  • RNN详细的架构

循环神经网络使用单层的全连接结构图

  循环网络在每一时间t有相同的网络结构,假设输入x为n维向量,隐含层的神经元个数为m,输出层的神经元个数为r,则U的大小为n×m维;W是上一次的 a t − 1 a_{t-1} at1作为这一次输入的权重矩阵,大小为m×m维;Ⅴ是连输出层的权重矩阵,大小为m×r维。而 x t x_t xt a t a_t at o t o_t ot都是向量,它们各自表示的含义如下:

  1. x t x_t xt是时刻t的输入;
  2. a t a_t at是时刻t的隐层状态。它是网络的记忆。 a t a_t at基于前一时刻的隐层状态和当前时刻的输入进行计算,即 a t = f ( U x t + W a t − 1 ) a_t=f(Ux_t+Wa_{t-1}) at=f(Uxt+Wat1)。函数f通常是非线性的,如tanh或者ReLU。 a t − 1 a_{t-1} at1为前一个时刻的隐层状态,其初始化通常为0;
  3. o t o_t ot是时刻t的输出。例如,如果我们想预测句子的下一个词,它将会是一个词汇表中的概率向量, o t = s o f t m a x ( V a t ) o_t=softmax(Va_t) ot=softmax(Vat) a t a_t at认为是网络的记忆状态, a t a_t at可以捕获之前所有时刻发生的信息。输出 o t o_t ot的计算仅仅依赖于时刻t的记忆。
  • 使用循环神经网络解决槽位填充问题
      将每个词向量输入到RNN中,得到的每一个输出向量表示对应的词属于某一个槽位的概率。

使用循环神经网络解决槽位填充问题

  回到上文中提到的“arrive”和“leave”问题,由于这两个词的词向量是不同的,因此在获得“Taipei”一词的输出时就不会像前馈神经网络一样得到相同的结果,说明网络的记忆为解决需要考虑上下文的槽位填充问题提供了可能。

使用循环神经网络解决槽位填充问题

  • 深层RNN
      RNN也可以“deep”,将RNN叠加到一起可以形成深层的RNN。

RNN can be deep

  • RNN变种
  1. Elman Network
      上述RNN为Elman Network架构,其主要特点是将隐藏层的输出保存在memory中传给下一个时间点。

Elman Network

  1. Jordan Network
      与Elman Network不同的是Jordan Network是将网络的输出层的输出保存在memory中传给下一个时间点。这样同Elman Network比起来我们更清楚memory中保存了什么。

Jordan Network

  1. Bidirectional RNN(RNN)
      在Elman Network和Jordan Network中网络的某一个输出值只取决于这个输出对应的输入以及这个输入之前的输入的影响,而双向RNN的每一个输出值都会受到所有的输入的影响,真正地考虑了“上下文”。

Bidirectional RNN

3.Long Short-term Memory (LSTM 长短期记忆网络)

  在简单RNN中某一个时间点的memory会直接全部清洗掉上一个时间点的memory,而在LSTM中由于加入了遗忘门使得网络的上一个时间点的memory有机会根据遗忘门的值来保留下一部分。

  • LSTM直观的架构
      LSTM的一个cell有4个输入和一个输出,输入包括3个门结构(输入门、输出门、遗忘门)以及cell的输入,其简单架构图如下:

LSTM的结构

  门结构的值通常使用sigmoid函数作为激活函数,因此其值均会在0-1之间。cell的输入会与输入门的值进行相乘来决定输入有多少可以进入cell,遗忘门的值决定原来的memory cell中的“记忆”有多少可以被保留,输入门的值决定cell中的值有多少可以输出。其具体的传播过程如下图,其中f( z i z_i zi)、f( z f z_f zf)、f( z o z_o zo)为门结构的输出值:

LSTM中的运算

  上图与常见的LSTM架构图的对应关系如下图所示,首先要将t时刻的输入向量 x t x^t xt成以四个不同的权重矩阵得到四个相同维度的向量 z f z_f zf z i z_i zi z z z z o z_o zo,这四个向量分别对应下图右半部分的较直观的架构图中cell的四个输入:

LSTM直观架构图与常见架构图的对应关系

  • LSTM详细的架构
      下图展示了一个LSTM cell的细节,在这个图中将上一个时间点的输出向量与当前时间点的输入向量拼接到一起作为当前时间点的输入:

LSTM单元细节图

  • LSTM cell不同时间点之间的关系
      LSTM会以下图的连接方式连接不同的时间点:

连接方式

  然而上图并非LSTM的最终状态,LSTM还会把上一个时间点的输出以及存在memory cell中的值与当前时间点的输入拼接到一起,通过这种方式使得操控LSTM四个输入的时候同时考虑了当前时间点的输入、上一个时间点的输出以及保存在memory cell中的值:

LSTM最终形态

  • 深层LSTM
      LSTM也可以“deep”,将LSTM叠加到一起可以形成深层的LSTM。

深层LSTM

4.RNN的训练

  • 反向传播
      RNN的反向传播使用一种特殊的方式,叫做Backpropagation through time (BPTT 随时间反向传播)。
  • 梯度消失与梯度爆炸

RNN训练过程中loss变化

  在训练RNN时我们希望训练过程中的loss像蓝色的线那样变化,但是不幸的是有时候loss的变化会像绿色的线那样。
  RNN的loss在有些地方非常陡峭,有些地方又非常平坦,有时梯度更新到“悬崖”的地方再进行更新就会飞出很远,即梯度爆炸。使用clipping可以缓解这个问题,即设置一个梯度的极限值,当梯度大于这个值时就让梯度等于这个值。更新梯度的变化图如下所示:

RNN中的梯度下降

  举个例子来说,当RNN结构如下所示时,网络的最后一个输出 y 1000 y^{1000} y1000 w 999 w^{999} w999

例子

  此时当参数w轻微变化时就会对结果产生明显影响:

梯度爆炸与梯度消失

  使用LSTM可以解决梯度消失问题,这是因为与简单RNN不同的是LSTM更新memory的方式是将上一个时间点的memory保留一部分再与输入相加,因此前面时间点的memory会一直对输出结果有影响,这样就不会产生梯度消失问题,而简单RNN会在当前时间点更新memory时完全洗掉上一个时间点的memory。简单RNN和LSTM更新memory的方式如下:
  简单RNN: a t = f ( U x t + W a t − 1 ) a_t=f(Ux_t+Wa_{t-1}) at=f(Uxt+Wat1)
  LSTM: c t = g ( z ) f ( z i ) + c t − 1 f ( z f ) c_t=g(z)f(z_i)+c_{t-1}f(z_f) ct=g(z)f(zi)+ct1f(zf)
  另外两种解决梯度消失问题的网络结构如下:

两种解决梯度消失问题的网络结构

  另外需要注意在简单RNN中随机初始化参数时使用sigmoid激活函数会比使用ReLU效果更好一些,但是使用单位矩阵初始化参数时ReLU激活函数会比sigmoid激活函数效果要好。

参考资料

ref:吴茂贵《Python深度学习:基于TensorFlow》

  • 0
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值