【论文阅读】Attention Is All You Need

1.Introduction

RNN,尤其是LSTM,已经成为了序列模型和转化问题(如机器翻译)的最优方法。此后的很多研究也都致力于推动循环语言模型和编码-解码框架的发展。

RNN固有的序列属性阻碍了训练的并行化。虽然后续有些研究通过一些方法提升了模型计算效率,但是序列属性固有的限制依然存在。

此外,注意力机制也逐渐成为很多序列模型和转化模型中不可或缺的一部分,其通常搭配RNN一起使用。

因此本文提出一种新的框架:Transformer。完全抛弃RNN那一套理论,只依靠注意力机制来构建输入和输出之间的全局依赖关系。并且,Transformer可以很好的实现并行化且在翻译质量上达到了SOTA的水平。

2.Background

据我们所知,Transformer是第一个完全依靠self-attention机制的转化模型(没有使用RNNCNN)。

3.Model Architecture

大多数序列转化模型都使用了编码-解码结构。首先,编码器将输入序列 ( x 1 , . . . , x n ) (x_1,...,x_n) (x1,...,xn)转化为 z = ( z 1 , . . . , z n ) \mathbf{z}=(z_1,...,z_n) z=(z1,...,zn)。然后,解码器再将 z \mathbf{z} z转化为输出序列 ( y 1 , . . . , y m ) (y_1,...,y_m) (y1,...,ym)

Transformer的总体框架见下(左半部分为编码器,右半部分为解码器):

3.1.Encoder and Decoder Stacks

👉Encoder:

编码器由6个相同的层构成(即Fig1中左半部分, N = 6 N=6 N=6)。每一层又分为两个子层(sub-layers)。第一个子层是多头自注意力机制(multi-head self-attention mechanism),第二个子层就是一个简单的全连接前馈网络。并且,每个子层我们都使用了残差连接Layer Normalization。也就是说,每个子层的输出为 L a y e r N o r m ( x + S u b l a y e r ( x ) ) LayerNorm(x+Sublayer(x)) LayerNorm(x+Sublayer(x))。为了方便残差连接,我们将每个子层以及embedding层的输出的维度都设置为 d m o d e l = 512 d_{model}=512 dmodel=512

👉Decoder:

解码器也是由6个相同的层构成(即Fig1中右半部分, N = 6 N=6 N=6)。每个层包含有三个子层,其中一个子层对编码器的输出执行多头注意力。和编码器一样,我们对解码器中的每个子层也都使用了残差连接Layer Normalization。解码器中有一个子层是Masked Multi-Head Attention,是基于Multi-Head Attention修改得来的,其作用是确保位置 i i i的预测只能依赖于位置小于 i i i的已知输出。

⚠️只有编码器的最后一层和解码器的每一层相连。

3.2.Attention

注意力功能(an attention function)可以描述为一个query和一组key-value对通过映射得到output,这里的query、keys、values和output都是向量(个人理解:句子中的每个单词都会有自己的query、key、value和output)。通过对values进行加权求和可得到output,而每一个value的权值则通过query和对应的key计算得到。

3.2.1.Scaled Dot-Product Attention

我们称我们这种特殊的注意力机制为Scaled Dot-Product Attention(见Fig2左)。输入包含queries(维度为 d k d_k dk)、keys(维度为 d k d_k dk)、values(维度为 d v d_v dv)。首先计算某个query和所有keys的点积(dot product)(即Fig2左中的MatMul),得到的值再除以 d k \sqrt{d_k} dk (即Fig2左中的Scale),之后再通过softmax函数得到该key所对应的value的权值。

假设注意力机制的输入为 x \mathbf{x} x(假设我们的句子只有两个单词),输出为 z \mathbf{z} z

首先我们需要将每个单词的词嵌入向量(我们使用的词嵌入向量的维度为 d m o d e l = 512 d_{model}=512 dmodel=512,详见第3.2.2部分)转化为我们需要的维度(即 d k d_k dk d v d_v dv,转化矩阵 W W W的解释详见第3.2.2部分):

则第一个单词的output的计算可表示为下图:

个人理解: z 1 = 0.88 v 1 + 0.12 v 2 \mathbf{z}_1 = 0.88 \mathbf{v}_1 + 0.12 \mathbf{v}_2 z1=0.88v1+0.12v2。所以是一个单词的输出结果会考虑到序列中的所有单词。计算第二个单词的输出时会重新计算各个value的权值。

我们把多个queries、keys和values分别打包成矩阵Q、K和V。Scaled Dot-Product Attention的输出可表示为:

A t t e n t i o n ( Q , K , V ) = s o f t m a x ( Q K T d k ) V (1) Attention(Q,K,V)=softmax\left( \frac{QK^T}{\sqrt{d_k}} \right)V \tag{1} Attention(Q,K,V)=softmax(dk QKT)V(1)

用图可表示为:

有两种常见的注意力:加法注意力(additive attention)和点积注意力(dot-product (multiplicative) attention)。在理论上,两种注意力的复杂度相近,但是点积注意力可以利用矩阵乘法,所以在实际操作中,点积注意力速度更快,空间效率(space-efficient)更高。因此,我们选择使用点积注意力。

但对于较小的 d k d_k dk,两种注意力机制的表现差不多,但是对于较大的 d k d_k dk,加法注意力优于点积注意力。我们怀疑是因为对于较大的 d k d_k dk,点积的增长幅度较大,从而将softmax函数推到梯度非常小的区域,因此为了抵消这种影响,我们对点积注意力进行了Scale(即除以 d k \sqrt{d_k} dk )。

3.2.2.Multi-Head Attention

我们发现了一种更好的做法,将queries、keys、values分别通过线性映射将其维度转换到 d k , d k , d v d_k,d_k,d_v dk,dk,dv(queries、keys、values的原始维度为 d m o d e l d_{model} dmodel)。线性映射一共执行 h h h次,各次的映射可以并行化。然后通过Scaled Dot-Product Attention我们就可以得到 h h h个维度为 d v d_v dv的values,将这些values拼接在一起(Concat),再通过一次线性映射得到最终的输出。整个流程见Fig2右,我们将其称为多头注意力(Multi-Head Attention)。

多头注意力使模型能够共同关注来自不同位置的不同表征子空间(representation subspaces)的信息。单头注意力则会抑制这一特性。

M u l t i H e a d ( Q , K , V ) = C o n c a t ( h e a d 1 , . . . , h e a d h ) W O MultiHead(Q,K,V)=Concat(head_1,...,head_h)W^O MultiHead(Q,K,V)=Concat(head1,...,headh)WO

w h e r e   h e a d i = A t t e n t i o n ( Q W i Q , K W i K , V W i V ) where \ head_i = Attention(QW_i^Q,KW_i^K,VW_i^V) where headi=Attention(QWiQ,KWiK,VWiV)

从公式可以看出,Multi-Head中的Head指的是并行做了多少次线性映射,即 h h h

W W W为参数矩阵: W i Q ∈ R d m o d e l × d k , W i K ∈ R d m o d e l × d k , W i V ∈ R d m o d e l × d v , W O ∈ R h d v × d m o d e l W_i^Q \in \mathbb{R}^{d_{model} \times d_k}, W_i^K \in \mathbb{R}^{d_{model} \times d_k}, W_i^V \in \mathbb{R} ^{d_{model} \times d_v}, W^O \in \mathbb{R}^{hd_v \times d_{model}} WiQRdmodel×dk,WiKRdmodel×dk,WiVRdmodel×dv,WORhdv×dmodel

用图可表示为:

汇总到一张图:

因为有残差连接,所以子层的输入和输出维度应该保持一致。

在本文中,我们设置 h = 8 , d k = d v = d m o d e l / h = 64 h=8,d_k=d_v=d_{model}/h=64 h=8,dk=dv=dmodel/h=64。由于每个Head的维度降低,总的计算成本与全维度单头注意力的计算成本相似。

3.2.3.Applications of Attention in our Model

Transformer通过三种不同的方式使用多头注意力,见下图的1,2,3:

每个部分的解释见下:

  1. 在“encoder-decoder attention”层中(个人理解:即编码器和解码器连接的部分,也就是解码器中间的那个多头注意力层,见Fig1),queries来自该解码器的上一层,keys和values来自编码器的输出。这样就使得解码器中的每个位置都能注意到输入序列的所有位置(个人理解:“keys和values来自编码器的输出”有3种可能的实现方式:1)编码器把最后一层的keys和values直接传给解码器的每一层;2)编码器只是把最后一层的转换矩阵 W K , W V W^K,W^V WK,WV传给了解码器的每一层,解码器需要用上一个子层的输出自行计算keys和values;3)编码器把最后一层的输出 z \mathbf{z} z传给了解码器的每一层,解码器需要自己学习转换矩阵 W K , W V W^K,W^V WK,WV。因为本人未阅读源码,所以不确定是用的哪种方式,在此记录下自己的猜测)。

  2. 编码器中包含的自注意力层(self-attention layers),其所有的keys,values和queries都来自上一层的输出。编码器中的每个位置都能注意到上一层的所有位置(个人理解:类似在第1点中提到的,“其所有的keys,values和queries都来自上一层的输出”也可以有3种方式,个人觉得应该是根据上一层的输出自行学习自己的转换矩阵)。

  3. 该自注意力层是为了让每个位置注意到该位置以及之前所有的位置,而不关注该位置之后的位置。个人理解这个Masked Multi-Head Attention主要是在训练时起作用,因为测试阶段,单词是一个接一个的被预测出来的,不存在知道后续位置信息的情况。只有在训练阶段,我们已经知道了整个翻译好的GT,所以在模拟逐个单词被翻译出来的场景时,需要屏蔽掉后续位置上的单词。Mask的处理方式为将非法连接在Scaled Dot-Product Attention中对应的softmax输出置为 − ∞ -\infty

后续又在网上查了一些关于Masked Multi-Head Attention的介绍,我比较赞同的一种说法是Masked Multi-Head Attention主要是为了支持训练的并行化。Transformer是一个auto-regressive的序列模型(见下图左,下图右为非auto-regressive的序列模型):

auto-regressive的预测单词是一个接一个出来的,而非auto-regressive的预测单词是一起出来的。假如编码器的输入为“I love China”,GT为“我爱中国”,我们将GT作为解码器的输入,并行化分为5个分支:

  1. 第一个分支的输入为“S”(句子起始标识),需屏蔽“我,爱,中,国”,然后计算第一个单词输出为“我”的loss。
  2. 第二个分支的输入为“S,我”,需屏蔽“爱,中,国”,然后计算第二个单词输出“爱”的loss。
  3. 第三个分支的输入为“S,我,爱”,需屏蔽“中,国”,然后计算第三个单词输出“中”的loss。
  4. 第四个分支的输入为“S,我,爱,中”,需屏蔽“国”,然后计算第四个单词输出“国”的loss。
  5. 第五个分支的输入为“S,我,爱,中,国”,没有需要屏蔽的内容,然后计算第五个单词输出“E”(句子结束标识)的loss。

然后计算这5个loss的总和作为最终的loss,这样的话可以大大减少训练时间。而对于测试阶段,其无法并行化,Masked Multi-Head Attention并没有实际作用,只是为了和训练结构保持一致。

通常称这种防止标签泄漏的mask为sequence mask。在NLP中还有另外一种常用的mask,称为padding mask,用于处理非定长序列(比如输入句子的长度通常都是不一样的,通过padding mask将其补齐为一样的长度,方便模型处理)。

3.3.Position-wise Feed-Forward Networks

编码器或解码器中每个层(block)除了注意力子层,还有一个全连接前馈网络(feed-forward network,FFN),这个网络分别作用于每个位置,如下图所示:

FFN其实只有一层(共有 d f f = 2048 d_{ff}=2048 dff=2048个神经元),激活函数为ReLU函数:

F F N ( x ) = max ⁡ ( 0 , x W 1 + b 1 ) W 2 + b 2 (2) FFN(x) = \max (0,xW_1+b_1)W_2+b_2 \tag{2} FFN(x)=max(0,xW1+b1)W2+b2(2)

各个位置上使用的FFN都是完全一样的,但FFN中各层之间的参数是不一样的(如上图所示, z z z到FFN的参数 W 1 W_1 W1和FFN到 r r r的参数 W 2 W_2 W2是不一样的)。

3.4.Embeddings and Softmax

和其他序列转化模型类似,我们使用学习好的词嵌入矩阵将input tokens和output tokens转化为 d m o d e l d_{model} dmodel维的向量。我们还使用了softmax来预测下一个token的概率。在两个embedding layers(下图中1,2)和pre-softmax linear transformation中(下图中3)使用同一个权重矩阵。但在embedding layers中,我们将权重矩阵乘以 d m o d e l \sqrt{d_{model}} dmodel (即之前提到的词嵌入矩阵)。

3.5.Positional Encoding

因为我们的模型没有循环和卷积结构,为了给模型加入位置之间的序列信息,我们添加了“positional encodings”(见Fig1)。positional encodings的维度也是 d m o d e l d_{model} dmodel,和词嵌入向量维度一样,这样两者可以相加(见Fig1)。

positional encodings的计算见下:

P E ( p o s , 2 i ) = sin ⁡ ( p o s / 10000 2 i / d m o d e l ) PE_{(pos,2i)}=\sin (pos / 10000^{2i/d_{model}}) PE(pos,2i)=sin(pos/100002i/dmodel)

P E ( p o s , 2 i + 1 ) = cos ⁡ ( p o s / 10000 2 i / d m o d e l ) PE_{(pos,2i+1)}=\cos (pos / 10000^{2i/d_{model}}) PE(pos,2i+1)=cos(pos/100002i/dmodel)

其中, p o s pos pos是token在序列中的位置, i i i的范围是 [ 0 , 1 , . . . , d m o d e l / 2 ] [0,1,...,d_{model}/2] [0,1,...,dmodel/2]。例如,句子中第一个词( p o s = 1 pos=1 pos=1)的PE(positional encodings)为:

P E p o s = P E 1 = [ sin ⁡ ( 1 / 10000 0 / 512 ) , cos ⁡ ( 1 / 10000 0 / 512 ) , sin ⁡ ( 1 / 10000 2 / 512 ) , cos ⁡ ( 1 / 10000 2 / 512 ) , . . . ] PE_{pos} = PE_1 = [\sin(1/10000^{0/512}), \cos(1/10000^{0/512}), \sin(1/10000^{2/512}), \cos(1/10000^{2/512}),...] PEpos=PE1=[sin(1/100000/512),cos(1/100000/512),sin(1/100002/512),cos(1/100002/512),...]

在表3的E行,我们和其他positional encodings方法(Jonas Gehring, Michael Auli, David Grangier, Denis Yarats, and Yann N. Dauphin. Convolutional sequence to sequence learning. arXiv preprint arXiv:1705.03122v2, 2017.)进行了比较。

4.Why Self-Attention

这一部分我们比较了self-attention layers和recurrent、convolutional layers这三种方式各自将长度不定的symbol representation ( x 1 , . . . , x n ) (x_1,...,x_n) (x1,...,xn)转化成定长的 ( z 1 , . . . , z n ) (z_1,...,z_n) (z1,...,zn)时的一些特点。有三点使得我们最终选择了self-attention。

第一点是每层的总计算复杂度。第二点是并行化的最小计算量。

第三点是网络中长期依赖关系之间的路径长度。在许多序列转换任务中,学习长期依赖关系是一个关键挑战。而信号在网络中穿过的路径长度是学习长期依赖关系的一个重要因素。路径越短,越容易学习长期依赖关系。因此,我们还比较了上述三种方式中任意两个输入和输出位置之间的最大路径长度。

对比结果见表1。就计算复杂度来说,如果 n < d n<d n<d,则self-attention layers比recurrent快。为了提高较长序列的计算性能,self-attention可以限制为只关注以目标位置为中心,大小为 r r r的邻域。但这也会导致最大路径长度的增加。我们计划在未来的工作中进一步研究这种方式。

此外,self-attention是一个更容易被解释的模型(即不像CNN是个黑盒模型)。

注意力的可视化:

Fig3为编码器第5层自注意力机制长期依赖关系的一个例子。可以看到单词“making”注意到了很多距离较远的单词,完成了词组“making … more difficult”。

并且从Fig3中可以看出序列使用了padding mask,使用标识<pad>将序列长度保持一致。

Fig4也是编码器第5层,上面为第5个头的注意力可视化,下面为单词“its”的第5,6个头的注意力可视化。

不同的注意力头可以学到不同的句子结构,见Fig5,是来自编码器第5层两个不同的头的可视化结果。

5.Training

本部分介绍模型的训练细节。

5.1.Training Data and Batching

训练使用标准的WMT 2014 English-German数据集,共包含450万个句子对。数据集中的句子使用byte-pair encoding进行编码,单词表共有token(即单词)约37000个(其实是37000个英语-德语单词对)。对于英法互译,我们使用更大的WMT 2014 English-French数据集,包含3600万个句子对,单词表共有32000个token。长度相近的句子被放在同一个batch里。每个batch包含一组句子对,会用到大约25000个单词对。

byte-pair encoding是一种简单的数据压缩方法。这种方法用数据中不存在的一个字节表示最常出现的连续字节数据。比如我们要编码数据aaabdaaabac,字节对aa出现次数最多,所以我们用数据中没有出现的字节Z替换aa得到ZabdZabac,此时,字节Za出现的次数最多,我们用另一个字节Y来替换Za得到YbdYbac,同理,再用X替换Yb得到XdXac,由于不再有重复出现的字节对,所以这个数据不能再被进一步压缩。解压的时候,就是按照相反的顺序执行替换过程。

5.2.Hardware and Schedule

我们在一台配有8块NVIDIA P100 GPUs的机器上训练模型。对于base model(见表3),训练一个batch(原文用词为training step)大约花费0.4秒。我们共训练了100000个batch,总耗时12个小时。对于big model(见表3),训练一个batch大约花费1秒,我们共训练了300000个batch,总耗时3.5天。

5.3.Optimizer

使用Adam优化算法,其中 β 1 = 0.9 , β 2 = 0.98 , ϵ = 10 − 9 \beta_1=0.9,\beta_2=0.98,\epsilon=10^{-9} β1=0.9,β2=0.98,ϵ=109。学习率的变化遵循下式:

l r a t e = d m o d e l − 0.5 ⋅ min ⁡ ( s t e p _ n u m − 0.5 , s t e p _ n u m ⋅ w a r m u p _ s t e p s − 1.5 ) (3) lrate = d_{model}^{-0.5} \cdot \min (step\_ num^{-0.5},step\_num \cdot warmup\_steps^{-1.5}) \tag{3} lrate=dmodel0.5min(step_num0.5,step_numwarmup_steps1.5)(3)

其中, w a r m u p _ s t e p s = 4000 warmup\_steps=4000 warmup_steps=4000

5.4.Regularization

训练阶段使用了三种方式的正则化。

👉Residual Dropout

对每个子层的输出进行dropout。此外,对词嵌入向量和positional encodings的和也进行了dropout。对于base model(见表3), P d r o p = 0.1 P_{drop}=0.1 Pdrop=0.1

👉Label Smoothing

在训练阶段,我们还使用了标签正则化,并且设 ϵ l s = 0.1 \epsilon_{ls}=0.1 ϵls=0.1。这一操作提高了模型的准确性和BLEU分数

6.Results

6.1.Machine Translation

在WMT 2014 English-to-German翻译任务中,我们big model(见表3)的BLEU分数比之前最好成绩还高2.0,达到了SOTA的28.4。在8块P100 GPUs上训练了3.5天。即使是我们的base model也比之前最好的成绩要高,并且其训练成本是所有模型中最低的。

在WMT 2014 English-to-French翻译任务中,我们big model的BLEU分数为41.0,优于之前所有方法,并且计算成本不到之前方法的四分之一。这里我们使用 P d r o p = 0.1 P_{drop}=0.1 Pdrop=0.1,而不是表3中的0.3。

我们还使用了Beam Search,其中beam size=4,length penalty α \alpha α=0.6。这些超参数是通过在验证集(the development set)上实验得到的。我们设置输出序列的最大长度为输入长度+50。

6.2.Model Variations

为了评估Transformer模型中不同组件的重要程度,我们对base model进行了多种方式的改造,并在English-to-German翻译任务的development set,newstest2013数据集上进行性能度量。这里同样也使用了Beam Search,参数设置和第6.1部分相同。实验结果见表3:

表3中的A行,我们改变了头的个数以及key和value的维度。可以看出,头太多或者太少都会导致BLEU分数的下降。

表3中的B行,我们发现key的维度的下降会导致BLEU分数的下降。从表3中的C行和D行,我们发现模型越大效果越好,并且dropout的使用很好的避免了过拟合。表3中E行的解释见第3.5部分。

6.3.English Constituency Parsing

为了评估Transformer是否可以推广到其他任务,我们对English Constituency Parsing任务进行了实验,本部分不再详述,结果见表4:

结论就是Transformer在English Constituency Parsing任务上表现也很优异。

7.Conclusion

本文中,我们提出了Transformer,第一个完全基于注意力机制的序列转化模型,并没有使用编码-解码框架中最常见的循环层。

相比RNNCNN,Transformer训练更快,效果更好。此外,Transformer可以很好的扩展到其他类型的任务中。

源码地址:https://github.com/tensorflow/tensor2tensor

8.原文链接

👽Attention Is All You Need

9.参考资料

  1. The Illustrated Transformer
  2. Illustrated Guide to Transformers- Step by Step Explanation
  3. 在测试或者预测时,Transformer里decoder为什么还需要seq mask?
  4. Transformer相关——(7)Mask机制
  5. 对Transformer中的Positional Encoding一点解释和理解
  6. 字节对编码(wiki百科)

想要获取最新文章推送或者私聊谈人生,请关注我的个人微信公众号:⬇️x-jeff的AI工坊⬇️

个人博客网站:https://shichaoxin.com

GitHub:https://github.com/x-jeff


评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值