深度学习教程 | 序列模型与RNN网络

深度学习教程 | 序列模型与RNN网络

第5门课 序列模型,第1周:循环序列模型

本系列为吴恩达老师《深度学习专项课程(Deep Learning Specialization)》学习与总结整理所得,对应的课程视频可以在这里查看。

引言

ShowMeAI前一篇文章 CNN应用:人脸识别和神经风格转换 中我们对以下内容进行了介绍:

  • 人脸识别
  • Siamese网络
  • 三元组损失Triplet loss
  • 人脸验证
  • CNN表征
  • 神经网络风格迁移
  • 1D与3D卷积

本篇内容开始我们将对吴恩达老师的第5门课《Recurrent Neural Networks》进行总结梳理。这门课主要介绍循环神经网络(RNN)的基本概念、模型结构细节和具体应用。

为什么选择序列模型? Why Sequence Models?

自然语言(文本)和音频都是时序前后相互关联的数据,对于这些序列数据我们会使用特殊的神经网络:循环神经网络(Recurrent Neural Network,RNN)来进行处理。使用RNN实现的应用包括下图中所示

使用RNN实现的应用

  • 语音识别
  • 音乐发生器
  • 情感分类
  • DNA序列分析
  • 机器翻译
  • 视频动作识别
  • 命名实体识别

1.数学符号

数学符号 Notation

我们来看一个自然语言处理中「命名实体识别」的例子,了解一下序列模型的数学符号命名规则。

示例语句为:王刚和李明去上班了

该句话包含9个字,简单地表示yyy即为1×91 \times 91×9向量,每位对应字是否为人名的一部分,111表示是,000表示否。很明显,该句话中「王」,「刚」,「李」,「明」均是人名成分,所以,对应的输出yyy可表示为:

y=[110110000]y = \begin{bmatrix} 1\ 1\ 0\ 1\ 1\ 0\ 0\ 0\ 0 \end{bmatrix} y=⎣⎡110110000⎦⎤

用y⟨t⟩y^{\left \langle t \right \rangle}y⟨t⟩表示序列对应位置的输出,使用TyT_yTy表示输出序列长度,我们有1≤t≤Ty1\leq t\leq T_y1≤t≤Ty。

我们把输入xxx表示为:

x=[x⟨1⟩x⟨2⟩x⟨3⟩x⟨4⟩x⟨5⟩x⟨6⟩x⟨7⟩x⟨8⟩x⟨9⟩]x = \begin{bmatrix} x^{\left \langle 1 \right \rangle}\ x^{\left \langle 2 \right \rangle}\ x^{\left \langle 3 \right \rangle}\ x^{\left \langle 4 \right \rangle}\ x^{\left \langle 5 \right \rangle}\ x^{\left \langle 6 \right \rangle}\ x^{\left \langle 7 \right \rangle}\ x^{\left \langle 8 \right \rangle}\ x^{\left \langle 9 \right \rangle} \end{bmatrix} x=⎣⎡x⟨1⟩x⟨2⟩x⟨3⟩x⟨4⟩x⟨5⟩x⟨6⟩x⟨7⟩x⟨8⟩x⟨9⟩⎦⎤

其中,x⟨t⟩x^{\left \langle t \right \rangle}x⟨t⟩表示序列对应位置的输入,TxT_xTx表示输入序列长度。注意,在当前序列标注示例汇总,Tx=TyT_x=T_yTx=Ty,其他序列问题也存在Tx≠TyT_x\neq T_yTx\=Ty的情况。

我们用什么样的方式来表示x⟨t⟩x^{\left \langle t \right \rangle}x⟨t⟩呢,在机器学习场景下我们依旧希望是向量化的表征,一种方法是我们会构建一个囊括大部分出现的字的词汇库vocabulary。例如一个包含10000个字的词汇库为:

[我你⋅⋅⋅王⋅⋅⋅刚⋅⋅⋅置]\left[ \begin{matrix} 我 \ 你 \ \cdot \ \cdot \ \cdot \ 王 \ \cdot \ \cdot \ \cdot \ 刚 \ \cdot \ \cdot \ \cdot \ 置 \end{matrix} \right]⎣⎡我你⋅⋅⋅王⋅⋅⋅刚⋅⋅⋅置⎦⎤

该词汇库可看成是10000×110000 \times 110000×1的向量。注意,在自然语言处理中,针对不同的问题,我们构建的词汇库的基础元素是不一样的,命名实体识别场景下会用字,有些场景下会用词(中文有分词操作),有些大型任务下的词汇库可达百万级别的词汇量。

构建了词汇库之后,可以基于one-hot编码,把居中每个x⟨t⟩x^{\left \langle t \right \rangle}x⟨t⟩都表示成10000×110000 \times 110000×1的向量,词汇表中与x⟨t⟩x^{\left \langle t \right \rangle}x⟨t⟩对应的位置为1,其它位置为0。有时候会出现词汇表之外的单词,可以使用UNK或其他字符串来占位表示。

多样本的情况,以上序列模型对应的命名规则可表示为:X(i)⟨t⟩X^{(i){\left \langle t \right \rangle}}X(i)⟨t⟩,y(i)⟨t⟩y^{(i){\left \langle t \right \rangle}}y(i)⟨t⟩,Tx(i)T_x{(i)}Tx(i),Ty(i)T_y{(i)}Ty(i)。其中,iii表示第iii个样本。不同样本的Tx(i)T_x{(i)}Tx(i)或Ty(i)T_y{(i)}Ty(i)都有可能不同。

2.循环神经网络模型

循环神经网络模型 Recurrent Neural Network Model

对于序列模型,如果使用标准的神经网络,其模型结构如下:

循环神经网络模型

使用标准的神经网络模型存在两个问题:

不同样本的输入序列长度或输出序列长度不同,即Tx(i)≠Tx(j)T_x^{(i)}\neq T_x{(j)}Tx(i)\=Tx(j),Ty(i)≠Ty(j)T_y{(i)}\neq T_y^{(j)}Ty(i)\=Ty(j),造成模型难以统一

  • 解决办法之一是设定一个最大序列长度,对每个输入和输出序列补零并统一到最大长度。但是这种做法实际效果并不理想。

标准神经网络结构无法共享序列不同x⟨t⟩x^{\left \langle t \right \rangle}x⟨t⟩之间的特征

  • 例如,如果某个x⟨t⟩x^{\left \langle t \right \rangle}x⟨t⟩即「王」是人名成分,那么句子其它位置出现了「王」,也很可能也是人名。这是共享特征的结果,如同CNN网络特点一样。但是,上图所示的网络不具备共享特征的能力。
  • 共享特征还有助于减少神经网络中的参数数量,一定程度上减小了模型的计算复杂度。例如上图所示的标准神经网络,假设每个x⟨t⟩x^{\left \langle t \right \rangle}x⟨t⟩扩展到最大序列长度为100,且词汇表长度为10000,则输入层就已经包含了100×10000100 \times 10000100×10000个神经元了,权重参数很多,运算量将是庞大的。

综上,我们了解到标准神经网络和CNN都不适合解决序列建模问题,而有一类神经网络:循环神经网络(Recurrent Neural Network,RNN)非常擅长处理序列建模问题的。它的典型结构如下:

循环神经网络模型

这是一个沿着序列从左到右依次传递(展开)的模型。上面的例子中,输入输出长度直接有Tx=TyT_x=T_yTx=Ty的关系。模型里x⟨t⟩x^{\left \langle t \right \rangle}x⟨t⟩与y⟨t⟩\hat{y}{\left \langle t \right \rangle}y⟨t⟩之间是隐藏神经元。a⟨t⟩a{\left \langle t \right \rangle}a⟨t⟩会传入到第t+1t+1t+1个元素中,作为输入。初始的a⟨t⟩a^{{\left \langle t \right \rangle}}a⟨t⟩一般为零向量。

RNN包含三类权重系数Wya,Waa,WaxW_{ya},W_{aa},W_{ax}Wya,Waa,Wax且每个时间步是共享这3组权重的。如下图所示:

循环神经网络模型

2.1 前向传播(Forward Propagation)

我们来展开看看RNN,下图是每个时间步的神经元展开的内部结构:

循环神经网络模型

前向传播过程的计算公式如下:

循环神经网络模型

公式中:

  • g1g_1g1是激活函数,通常选择tanhtanhtanh,有时也用ReLU。
  • g2g_2g2可选sigmoid或Softmax,取决于解决的问题和需要的输出类型。
  • 图示中RNN Cell的函数,是上方公式的一个特例,是最常用的原始形态RNN。

我们简化一下公式,把WaaW_{aa}Waa、WaxW_{ax}Wax水平并列为一个矩阵WaW_aWa,同时a⟨t−1⟩a^{\left \langle t-1 \right \rangle}a⟨t−1⟩和x⟨t⟩ x^{\left \langle t \right \rangle}x⟨t⟩堆叠成一个矩阵。可以得到如下的简化版前向传播计算公式:

Wa=[Waa,Wax]W_a = [W_{aa}, W_{ax}]Wa=[Waa,Wax]

a⟨t⟩=g1(Wa[a⟨t−1⟩;x⟨t⟩]+ba)a^{\left \langle t \right \rangle} = g_1(W_a [a^{\left \langle t-1 \right \rangle}; x^{\left \langle t \right \rangle}] + b_a)a⟨t⟩=g1(Wa[a⟨t−1⟩;x⟨t⟩]+ba)

y⟨t⟩=g2(Wyaa⟨t⟩+by)\hat{y}{\left \langle t \right \rangle} = g_2(W_{ya}a^{\left \langle t \right \rangle} + b_y)y^⟨t⟩=g2(Wyaa⟨t⟩+by)

我们上面介绍到的RNN为单向RNN,按照时间步从左到右单向依次运算得到结果,y⟨t⟩\hat{y}{\left \langle t \right \rangle}y⟨t⟩只与前序的元素有关。但有些情况下y⟨t⟩\hat {y}^{\left \langle t \right \rangle}y^⟨t⟩也与后续元素有关。如下例,单凭前面的字,无法确定「王」是否为人名的一部分,而添加后续(右侧)的信息可以有效辅助判断。

  • 他说,「王刚已经离开学校了」
  • 他说,「王府内已经没有差事可做了」

依赖两侧信息的RNN叫做「双向RNN」,简称为**BRNN(Bidirectional RNN)**后面的内容部分会再介绍到。

2.2 反向传播(Backpropagation)

通过时间的反向传播 Backpropagation through Time

我们先为RNN场景定义一个损失函数。假如我们的问题是判断序列当前输入的字是否是人名的一部分,这是典型的二分类问题,我们采用交叉熵损失函数,计算公式如下所示:

L⟨t⟩(y⟨t⟩,y⟨t⟩)=−y⟨t⟩logy⟨t⟩−(1−y⟨t⟩)log(1−y⟨t⟩)L{\left \langle t \right \rangle}(\hat {y}^{\left \langle t \right \rangle}, y^{\left \langle t \right \rangle}) = -y^{\left \langle t \right \rangle}log\hat {y}^{\left \langle t \right \rangle} - (1 - y^{\left \langle t \right \rangle})log(1-\hat {y}^{\left \langle t \right \rangle})L⟨t⟩(y⟨t⟩,y⟨t⟩)=−y⟨t⟩logy⟨t⟩−(1−y⟨t⟩)log(1−y^⟨t⟩)

我们沿着序列把每个位置的损失函数相加,得到整个序列的成本函数如下:

J=L(y,y)=∑t=1TxL⟨t⟩(y⟨t⟩,y⟨t⟩)J = L(\hat {y}, y) = \sum^{T_x}_{t=1} L^{\left \langle t \right \rangle}(\hat {y}^{\left \langle t \right \rangle}, y^{\left \langle t \right \rangle})J=L(y,y)=t=1∑TxL⟨t⟩(y⟨t⟩,y⟨t⟩)

因为损失函数本身计算依赖时序上每个时间点,RNN的反向传播也被称为沿着时间的反向传播(Backpropagation through time),这里的反向传播从右向左计算的过程就像是沿着时间倒推。

详细的计算公式如下所示:

循环神经网络模型

a⟨t⟩=tanh⁡(Waxx⟨t⟩+Waaa⟨t−1⟩+b)a^{\left \langle t \right \rangle}=\tanh \left(W_{a x} x^{\left \langle t \right \rangle}+W_{a a} a^{\left \langle t-1 \right \rangle}+b\right)a⟨t⟩=tanh(Waxx⟨t⟩+Waaa⟨t−1⟩+b)

∂tanh⁡(x)∂x=1−tanh⁡(x)2\frac{\partial \tanh (x)}{\partial x}=1-\tanh (x)^{2}∂x∂tanh(x)=1−tanh(x)2

∂a⟨t⟩∂Wax=(1−tanh⁡(Waxx⟨t⟩+Waaa⟨t−1⟩+b)2)xT\frac{\partial a^{\left \langle t \right \rangle}}{\partial W_{a x}}=\left(1-\tanh \left(W_{a x} x^{\left \langle t \right \rangle}+W_{a a} a^{\left \langle t-1 \right \rangle}+b\right)^{2}\right) x^{ T}∂Wax∂a⟨t⟩=(1−tanh(Waxx⟨t⟩+Waaa⟨t−1⟩+b)2)xT

∂a⟨t⟩∂Waa=(1−tanh⁡(Waxx⟨t⟩+Waaa⟨t−1⟩+b)2)aT\frac{\partial a^{\left \langle t \right \rangle}}{\partial W_{a a}}=\left(1-\tanh \left(W_{a x} x^{\left \langle t \right \rangle}+W_{a a} a^{\left \langle t-1 \right \rangle}+b\right)^{2}\right) a^{T}∂Waa∂a⟨t⟩=(1−tanh(Waxx⟨t⟩+Waaa⟨t−1⟩+b)2)aT

∂a⟨t⟩∂b=∑batch(1−tanh⁡(Waxx⟨t⟩+Waaa⟨t−1⟩+b)2)\frac{\partial a^{\left \langle t \right \rangle}}{\partial b}=\sum_{b a t c h}\left(1-\tanh \left(W_{a x} x^{\left \langle t \right \rangle}+W_{a a} a^{\left \langle t-1 \right \rangle}+b\right)^{2}\right)∂b∂a⟨t⟩=batch∑(1−tanh(Waxx⟨t⟩+Waaa⟨t−1⟩+b)2)

∂a⟨t⟩∂a⟨t−1⟩=WaaT⋅(1−tanh⁡(Waxx⟨t−1⟩+Waaa(t−1⟩+b)2)\frac{\partial a^{\left \langle t \right \rangle}}{\partial a^{\left \langle t-1 \right \rangle}}=W_{a a}{ }^{T} \cdot\left(1-\tanh \left(W_{a x} x^{\left \langle t-1 \right \rangle}+W_{a a} a{(t-1\rangle}+b\right){2}\right)∂a⟨t−1⟩∂a⟨t⟩=WaaT⋅(1−tanh(Waxx⟨t−1⟩+Waaa(t−1⟩+b)2)

2.3 RNN不同结构

不同类型的循环神经网络 Different Types of RNNs

前面我们提到的RNN,都是满足输入输出长度一致的,即Tx=TyT_x=T_yTx=Ty,但实际有很多类型的RNN输入长度和输出长度不一致。根据输入及输出长度关系,RNN可以分为以下结构:

循环神经网络模型

  • 一对一(One to one):Tx=1,Ty=1T_x=1,T_y=1Tx=1,Ty=1
  • 一对多(One to many):Tx=1,Ty>1T_x=1,T_y>1Tx=1,Ty>1
  • 多对一(Many to one):Tx>1,Ty=1T_x>1,T_y=1Tx>1,Ty=1
  • 多对多(Many to many):Tx=TyT_x=T_yTx=Ty
  • 多对多(Many to many):Tx≠TyT_x\neq T_yTx\=Ty

3.语言模型

语言模型和序列生成 Language Model and Sequence Generation

语言模型(Language Model)是自然语言处理(NLP)中最基本和最重要的任务之一。即使到今天大家看到很多新型神经网络模型训练使用的基础任务之一都还是语言模型。RNN模型能比较好地建立语言模型。

我们以一个例子来解释一下什么是语言模型。我们用算法进行语音识别时,一句语音有两种识别结果:

  • 历史总是不断重演
  • 力使总事不断虫眼

我们都能判断,第二句话更有可能是正确的识别结果。语言模型是一个可以计算出这两句话各自的出现概率的模型。比如预估第一句话概率为10−1310{-13}10−13,第二句话概率为10−1010{-10}10−10。

在语音识别的场景下,我们就可以利用语言模型得到各自语句的概率,选择概率最大的语句作为正确的识别结果。概率计算的表达式为:

P(y⟨1⟩,y⟨2⟩,⋯ ,y⟨Ty⟩)P(y^{\left \langle 1 \right \rangle},y^{\left \langle 2 \right \rangle},\cdots,y^{\left \langle T_y \right \rangle})P(y⟨1⟩,y⟨2⟩,⋯,y⟨Ty⟩)

那么这个有用的语言模型如何构建呢,又和我们这里提到的RNN有什么关系呢,我们会按照如下步骤来操作:

  • ① 采集数据构建一个足够大的训练集(当前很多大模型都是以千万和亿为数据量级的),训练集由大量的语句语料库(corpus)构成。
  • ② 对语料库的句子进行切分词(tokenize)。对英文可以做单词归一化和切分单词,中文按照字或者词做切分(词用得更多)。
  • ③ 基于分词过后的句库,建立vocabulary,对每个字/词进行one-hot编码。

例如下面这句话:

我爱吃油泼辣子彪彪面,味道非常好。

我们会给每句话结束末尾,加上< EOS >作为语句结束符。如果语句中遇到词汇表中没有的单词,用< UNK >表示。假设单词「彪」不在词汇表中,则上面这句话可表示为:

我爱吃油泼辣子 < UNK > < UNK >面,味道非常好。< EOS >

将标志化后的训练集用于训练RNN,过程如下图所示:

语言模型

训练过程解析

① 第1个时间步中,输入的a⟨0⟩a^{\left \langle 0 \right \rangle}a⟨0⟩和x⟨1⟩x^{\left \langle 1 \right \rangle}x⟨1⟩都是零向量,y^⟨1⟩\hat {y}^{\left \langle 1 \right \rangle}y^⟨1⟩是通过Softmax预测出的字典中每个词作为第一个词出现的概率;

② 第2个时间步中,输入的x⟨2⟩x^{\left \langle 2 \right \rangle}x⟨2⟩是训练样本的标签中的第一个单词y⟨1⟩y^{\left \langle 1 \right \rangle}y⟨1⟩(即「我」)和上一层的激活项a⟨1⟩a^{\left \langle 1 \right \rangle}a⟨1⟩,输出的y⟨2⟩y^{\left \langle 2 \right \rangle}y⟨2⟩表示的是通过Softmax预测出的、词语「我」后面出现字典中的其他每个词的条件概率。

③ 以此类推,最后就可以得到整个句子出现的概率。

定义损失函数为:

L(y⟨t⟩,y⟨t⟩)=−∑tyi⟨t⟩logy⟨t⟩L(\hat {y}^{\left \langle t \right \rangle}, y^{\left \langle t \right \rangle}) = -\sum_t y_i^{\left \langle t \right \rangle} log \hat {y}^{\left \langle t \right \rangle}L(y⟨t⟩,y⟨t⟩)=−t∑yi⟨t⟩logy⟨t⟩

成本函数为:

J=∑tL⟨t⟩(y^⟨t⟩,y⟨t⟩)J = \sum_t L^{\left \langle t \right \rangle}(\hat {y}^{\left \langle t \right \rangle}, y^{\left \langle t \right \rangle})J=t∑L⟨t⟩(y^⟨t⟩,y⟨t⟩)

4.采样-序列生成

对新序列采样 Sampling Novel Sequences

对于训练好的语言模型,可以通过采样(Sample)构建新的序列(对应上例就是产出新的句子),也可以进而了解这个模型学习到了一些什么。

采样 – 序列生成

具体过程如下:

① 第1个时间步输入a⟨0⟩a^{\left \langle 0 \right \rangle}a⟨0⟩和x⟨1⟩x^{\left \langle 1 \right \rangle}x⟨1⟩为零向量,输出预测出的字典中每个词作为第一个词出现的概率,根据Softmax的分布进行随机采样(np.random.choice)

② 将上一步采样得到的y^⟨1⟩\hat {y}^{\left \langle 1 \right \rangle}y⟨1⟩作为第二个时间步的输入x⟨2⟩x{\left \langle 2 \right \rangle}x⟨2⟩。

③ 以此类推,直到采样到EOS,至此基于语言模型生成的一个完整句子序列生成完毕。

我们可以通过模型生成的句子,理解模型通过语料库学习到的知识(词语组合与分布)。

以中文为例,上面构建语言模型,很多时候会基于「词」来构建,但因为中文词汇非常多,难免会出现未知标识(UNK)。

一种处理方式是可以基于「字」粒度建模,因为字总体数量有限得多,出现位置标识的可能性也更小。但这种方法也有缺点:得到的序列过多过长,且训练成本更高。

总体来说,大家看到基于词汇构建的语言模型更为常用。

5.RNN 梯度消失与梯度爆炸

循环神经网络的梯度消失 Vanishing Gradients with RNNs

梯度消失与梯度爆炸是深度神经网络中很重要的问题,对于RNN而言,序列较长也容易有对应的问题,我们来对这两个问题做一点展开讲解。

RNN梯度消失与梯度爆炸

5.1 梯度消失

序列数据的特点是:可能存在距离上跨度很大的依赖关系,在我们前面提到的语言模型例子中,体现的就是某个词对与其相距较远的一个词有强依赖。如下有2句英文句子:

The cat, which already ate a bunch of food, was full.
The cats, which already ate a bunch of food, were full.

很显然两句话里,主语数量级和对应的be动词是相互对应的:was受cat影响;were受cats影响。而它们之间都相隔了很多单词。而一般的RNN模型每个元素受其周围附近的影响较大,不擅长捕获这种长期依赖关系。上面两句话的这种依赖关系,由于跨度很大,普通的RNN网络容易出现梯度消失,捕捉不到它们之间的依赖,造成语法错误。

普通RNN里的梯度消失问题比较难解决,可以使用调整结构的GRU和LSTM (下文会介绍到)作为缓解梯度消失问题的方案。

RNN不同结构

5.2 梯度爆炸

在反向传播时,随着层数的增多,梯度不仅可能指数型下降,也有可能指数型上升,即梯度爆炸。不过梯度爆炸比较容易发现,因为参数会急剧膨胀到数值溢出(可能显示为 NaN)。

对于梯度爆炸,常用的处理办法是采用梯度修剪(Gradient Clipping):观察梯度向量,如果它大于某个阈值,则缩放梯度向量以保证其不会太大。

RNN梯度爆炸梯度裁剪

6.GRU(门控循环单元)

GRU单元 Gated Recurrent Unit GRU

GRU(Gated Recurrent Units, 门控循环单元)改善了RNN的隐藏层,使其可以更好地捕捉深层连接,并改善了梯度消失问题。

GRU门控循环单元

依旧以前面提到的这个句子为例:

The cat, which already ate a bunch of food, was full.

模仿人类从左到右读上面这个句子的方式:

  • GRU单元有一个新的变量称为ccc,代表记忆细胞(Memory Cell),其作用是提供记忆的能力,记住例如前文主语是单数还是复数等信息。在时间ttt,记忆细胞的值c⟨t⟩c^{\left \langle t \right \rangle}c⟨t⟩等于输出的激活值a⟨t⟩a^{\left \langle t \right \rangle}a⟨t⟩;c~⟨t⟩\tilde{c}^{\left \langle t \right \rangle}c~⟨t⟩代表下一个ccc的候选值。
  • Γr\Gamma_rΓr代表相关门(Relevance Gate),表示c~⟨t⟩\tilde{c}^{\left \langle t \right \rangle}c~⟨t⟩和c⟨t⟩c^{\left \langle t \right \rangle}c⟨t⟩的相关性。
  • Γu \Gamma_uΓu代表更新门(Update Gate),用于决定什么时候更新记忆细胞的值。

GRU 门控循环单元

以上结构的具体公式为:

Γr=σ(Wr[c⟨t−1⟩,x⟨t⟩]+br)\Gamma _r = \sigma(W_r[c^{\left \langle t-1 \right \rangle}, x^{\left \langle t \right \rangle}] + b_r)Γr=σ(Wr[c⟨t−1⟩,x⟨t⟩]+br)

Γu=σ(Wu[c⟨t−1⟩,x⟨t⟩]+bu)\Gamma _u = \sigma(W_u[c^{\left \langle t-1 \right \rangle}, x^{\left \langle t \right \rangle}] + b_u)Γu=σ(Wu[c⟨t−1⟩,x⟨t⟩]+bu)

c~⟨t⟩=tanh(Wc[Γr∗c⟨t−1⟩,x⟨t⟩]+bc)\tilde{c}^{\left \langle t \right \rangle} = tanh(W_c[\Gamma _r \ast c^{\left \langle t-1 \right \rangle}, x^{\left \langle t \right \rangle}] + b_c)c~⟨t⟩=tanh(Wc[Γr∗c⟨t−1⟩,x⟨t⟩]+bc)

c⟨t⟩=(1−Γu)×c⟨t−1⟩+Γu×c~⟨t⟩c^{\left \langle t \right \rangle} = (1 - \Gamma _u) \times c^{\left \langle t-1 \right \rangle} + \Gamma _u \times \tilde{c}^{\left \langle t \right \rangle}c⟨t⟩=(1−Γu)×c⟨t−1⟩+Γu×c~⟨t⟩

a⟨t⟩=c⟨t⟩a^{\left \langle t \right \rangle} = c^{\left \langle t \right \rangle}a⟨t⟩=c⟨t⟩

当使用sigmoid作为激活函数σ\sigmaσ来得到Γu\Gamma_uΓu时,Γu\Gamma_uΓu的值在0到1的范围内,且大多数时间非常接近于0或1。当Γu=1\Gamma _u = 1Γu=1时,c⟨t⟩c^{\left \langle t \right \rangle}c⟨t⟩被更新为c~⟨t⟩\tilde{c}^{\left \langle t \right \rangle}c~⟨t⟩,否则保持为c⟨t−1⟩c^{\left \langle t-1 \right \rangle}c⟨t−1⟩。因为Γu\Gamma_uΓu可以很接近0,因此c⟨t⟩c^{\left \langle t \right \rangle}c⟨t⟩几乎就等于c⟨t−1⟩c^{\left \langle t-1 \right \rangle}c⟨t−1⟩。在经过很长的序列后,ccc的值依然被维持,从而实现「记忆」的功能。

相关论文:

Cho et al., 2014. On the properties of neural machine translation: Encoder-decoder approaches

Chung et al., 2014. Empirical Evaluation of Gated Recurrent Neural Networks on Sequence Modeling

7.LSTM(长短期记忆)

长短期记忆 LSTM Long Short Term Memory Unit

LSTM(Long Short Term Memory,长短期记忆)网络比GRU更加灵活和强大,它额外引入了遗忘门(Forget Gate)Γf\Gamma _fΓf和输出门(Output Gate)Γo\Gamma_oΓo。其结构图和公式如下:

LSTM 长短期记忆

Γu=σ(Wu[a⟨t−1⟩,x⟨t⟩]+bu)\Gamma _u = \sigma(W_u[a^{\left \langle t-1 \right \rangle}, x^{\left \langle t \right \rangle}] + b_u)Γu=σ(Wu[a⟨t−1⟩,x⟨t⟩]+bu)

Γf=σ(Wf[a⟨t−1⟩,x⟨t⟩]+bf)\Gamma _f = \sigma(W_f[a^{\left \langle t-1 \right \rangle}, x^{\left \langle t \right \rangle}] + b_f)Γf=σ(Wf[a⟨t−1⟩,x⟨t⟩]+bf)

c~⟨t⟩=tanh(Wc[a⟨t−1⟩,x⟨t⟩]+bc)\tilde{c}^{\left \langle t \right \rangle} = tanh(W_c[a^{\left \langle t-1 \right \rangle}, x^{\left \langle t \right \rangle}] + b_c)c~⟨t⟩=tanh(Wc[a⟨t−1⟩,x⟨t⟩]+bc)

c⟨t⟩=Γu⟨t⟩×c~⟨t⟩+Γf⟨t⟩×c⟨t−1⟩c^{\left \langle t \right \rangle} = \Gamma^{\left \langle t \right \rangle}_u \times \tilde{c}^{\left \langle t \right \rangle} + \Gamma^{\left \langle t \right \rangle}_f \times {c}^{\left \langle t-1 \right \rangle}c⟨t⟩=Γu⟨t⟩×c~⟨t⟩+Γf⟨t⟩×c⟨t−1⟩

a⟨t⟩=Γo⟨t⟩×tanh(c⟨t⟩)a^{\left \langle t \right \rangle} = \Gamma _o^{\left \langle t \right \rangle} \times tanh(c^{\left \langle t \right \rangle})a⟨t⟩=Γo⟨t⟩×tanh(c⟨t⟩)

以上为1个LSTM单元的结构,多个LSTM单元按时间次序连接起来,就得到LSTM网络。

上面讲到的是简化版的LSTM。在更为常用的版本中,几个门值不仅取决于a⟨t−1⟩a^{\left \langle t-1 \right \rangle}a⟨t−1⟩和x⟨t⟩x^{\left \langle t \right \rangle}x⟨t⟩,有时也可以关联上一个记忆细胞输入的值c⟨t−1⟩c^{\left \langle t-1 \right \rangle}c⟨t−1⟩,这被称为窥视孔连接(Peephole Connection)。这时,和GRU不同,c⟨t−1⟩c^{\left \langle t-1 \right \rangle}c⟨t−1⟩和门值是一对一的。

c0c^{0}c0常被初始化为零向量。

相关论文:Hochreiter & Schmidhuber 1997. Long short-term memory

8.双向循环神经网络(BRNN)

双向循环神经网络 Bidirectional RNN

我们前面提到了,单向的RNN在某一时间步只能使用之前输入的序列信息。双向循环神经网络(Bidirectional RNN,BRNN)可以在序列的任意位置使用之前和之后的数据。其工作原理是增加一个反向循环层,结构如下图所示:

BRNN 双向循环神经网络

因此,有y⟨t⟩=g(Wy[a→⟨t⟩,a←⟨t⟩]+by)\hat{y}{\left \langle t \right \rangle}= g(W_y[\overrightarrow{a}^{\left \langle t \right \rangle}, \overleftarrow{a}^{\left \langle t \right \rangle}] + b_y)y^⟨t⟩=g(Wy[a⟨t⟩,a⟨t⟩]+by)

这个改进的方法不仅能用于基本的RNN,也可以用于GRU或LSTM。缺点是需要完整的序列数据,才能预测任意位置的结果。例如构建语音识别系统,需要等待用户说完并获取整个语音表达,才能处理这段语音并进一步做语音识别。因此,实际应用会有更加复杂的模块。

9.深度循环神经网络(DRNN)

深层循环神经网络 Deep RNNs

为了进一步提升模型的学习能力,我们可以在RNN的每个时间步上,也增加隐层数量,构建深度循环神经网络(Deep RNN)。结构如下图所示:

DRNN 深度循环神经网络

以a[2]⟨3⟩a^{[2]\left \langle 3 \right \rangle}a[2]⟨3⟩为例,有a[2]⟨3⟩=g(Wa[2][a[2]⟨2⟩,a[1]⟨3⟩]+ba[2])a^{[2]\left \langle 3 \right \rangle} = g(W_a{[2]}[a{[2]\left \langle 2 \right \rangle}, a^{[1]\left \langle 3 \right \rangle}] + b_a^{[2]})a[2]⟨3⟩=g(Wa[2][a[2]⟨2⟩,a[1]⟨3⟩]+ba[2])。

参考资料

ShowMeAI系列教程推荐

推荐文章

  • 14
    点赞
  • 22
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值