Paper Reading《Fastformer: Additive Attention Can Be All You Need 》
Paper url;笔者写作时作者Github尚未开源。Unofficial版本复现:TF版本,Pytorch版本,Keras版本;以及推荐一位Youtube上的大神Yannic Kilcher对本文进行的讲解。
1. Intuition
传统Transformer机制囿于512个token文本长度限制,涌现出了以下几种当前主流的Transformer变种,但同时也也存在着相应的缺点:
-
使用稀疏注意力机制降低计算复杂度。e.g. Longformer, BigBird.
缺点:自注意力机制需要更多的tokens参与运算,大幅度提升了时间和计算开销,速度慢。
-
利用hashing编码技术加速自注意力机制的计算。e.g. Reformer
缺点:计算复杂度常数很大,在处理长度有限的常见序列时效率很低。
-
近似地计算自注意力。e.g. Linformer
缺点:以上下文标记的方式接近自注意力,不是文本建模的最佳方法。当序列长度很长时计算效率低。
2. Fast-former Architecture
2.1 回顾下Self-Attention
![image-20210908150317288](https://gitee.com/heisenberg1996/Typora_pictures/raw/master/image-20210908150317288.png)
Attention ( Q , K , V ) = softmax ( Q K T d k ) V \text{Attention}(Q,K,V) = \text{softmax}(\frac{QK^T}{\sqrt{d_k}})V Attention(Q,K,V)=softmax(dkQKT)V
先对 Q , K Q,K Q,K做点乘(i.e. dot-product)得到二者的相似度矩阵,矩阵的每一行都是一个query和所有key的相似性;然后用 d k \sqrt{d_k} dk进行scaling,之后用softmax函数后再和 V V V相乘。
如何理解Self-Attention的Q,K ,V向量
目标是让模型能够各个单词词向量在上下文向量中代表着是哪种含义。
-
Key vector K K K:
describes what the content of this token is so far, which allows the token to advertise what is has to offer。更像句子本身的内容(addressable representation)
-
Query Vector Q Q Q:
means what does this token wanna know about the other tokens in the sequence. 更像我想从别的token那得到什么信息。
所以 K K K and Q Q Q 通常是不一样的
通过计算 Q W Q Q W^Q QWQ以及 K W K K W^K KWK的内积的softmax值表征了:针对于输入句中的每一个token所代表的信息想最终聚合到最后输出句子的token的。对每一个token都会算我们想要他这个token有多少信息“作用到”输出句子上。
-
Value Vector V V V:
通过前文softmax得到的分布,我们输入到下一个layer的乘积。类似于斜率
2.2 Architecture
![image-20210908145505532](https://gitee.com/heisenberg1996/Typora_pictures/raw/master/image-20210908145505532.png)
根据input text的embedding matrix,记为 E ∈ R N × d E\in\mathbb{R}^{N\times d} E∈RN×d,每个token代表的列向量记 [ e 1 , e 2 , ⋯ , e N ] [e_1,e_2,\cdots,e_N] [e1,e2,⋯,eN]。
-
通过线性变换层得到矩阵 Q , K , V Q,K,V Q,K,V的映射, Q , K , V ∈ R N × d Q,K,V\in \mathbb{R}^{N \times d} Q,K,V∈RN×d(此处为原文typo写为了 R d × d R^{d\times d} Rd×d), Q = [ q 1 , q 2 , ⋯ , q N ] Q=[q_1,q_2,\cdots,q_N] Q=[q1,q2,⋯,qN], K = [ k 1 , k 2 , ⋯ , k N ] K=[k_1,k_2,\cdots,k_N] K=[k1,k2,⋯,kN], V = [ v 1 , v 2 , ⋯ , v N ] V=[v_1,v_2,\cdots,v_N] V=[v1,v2,⋯,vN].
-
利用加性注意力价值概括融合(summarize) Q Q Q矩阵的信息得到浓缩上下文信息的global query vector。
那 Q Q Q矩阵转到 q q q向量的权重如何得到?利用softmax的思想计算:
α i = exp ( w q T q i / d ) ∑ j = 1 N exp ( w q T q j / d ) \alpha_{i}=\frac{\exp \left(\mathbf{w}_{q}^{T} \mathbf{q}_{i} / \sqrt{d}\right)}{\sum_{j=1}^{N} \exp \left(\mathbf{w}_{q}^{T} \mathbf{q}_{j} / \sqrt{d}\right)} αi=∑j=1Nexp(wqTqj/d)exp(wqTqi/d)
其中 w q ∈ R d w_q\in\mathbb{R}^d wq∈Rd是一个要学习的向量参数。 α ∈ R N × 1 \mathbf{\alpha}\in \mathbb{R}^{N\times1} α∈RN×1则global query vector即为 q = ∑ i = 1 N α i q i \mathbf{q}=\sum_{i=1}^{N} \alpha_{i} \mathbf{q}_{i} q=∑i=1Nαiqi。 q ∈ R N × 1 \mathbf{q}\in\mathbb{R}^{N\times1} q∈RN×1
-
我们知道在经典Transformer中我们是利用点积来对 Q , K Q,K Q,K之间交互计算相似度进行建模,但 Q ⋅ K T Q\cdot K^T Q⋅KT会带来二次的复杂度,那我们加性注意力机制如何降低运算复杂度的呢?
- 拼接:简单地连接两个向量不能考虑它们之间的相互作用。
- 相加:只能得到两个向量之间的线性相互作用,但也不能学习准确的上下文表示
- **element-wise product:**对两个变量之间的非线性相互作用进行建模,这可能有助于对长序列的复杂上下文进行建模。(Xiang Wang, et al. 2017.)
所以在此通过global query vector和 K K K矩阵计算element-wise product得到global context-aware key matrix,即 p i = q ∗ k i p_i = q * k_i pi=q∗ki,其实相对于传统transformer的步骤就是把 q i ⋅ k i q_i\cdot k_i qi⋅ki变成了 q ∗ k i q * k_i q∗ki,可以叫他全局注意力矩阵,因为 q q q向量是综合了所有token的信息。
※其实将上式展开可以看到: p i = k i ∑ j α j q j = ∑ j α j q j k j p_i = k_i\sum_j\alpha_j q_j=\sum_j\alpha_jq_jk_j pi=ki∑jαjqj=∑jαjqjkj,虽然我们有二次成绩,但是我们并不会有二次的运算复杂度,Why?
因为我们并没有原始的Transformer那样直接计算 softmax { ( [ Q W Q ⋅ ( K W K ) T ] / d } \text{softmax}\{([QW^Q\cdot (KW^K)^T]/\sqrt{d}\} softmax{([QWQ⋅(KWK)T]/d},该部分需要把每个序列中的每个位置的token两两组合,即需要将两个 n × d n\times d n×d的矩阵相乘,计算复杂度为 O ( n 2 ) O(n^2) O(n2)。
而Fast-former将 Q ∈ R N × d Q\in \mathbb{R}^{N\times d} Q∈RN×d压缩为 q ∈ R N × 1 q \in \mathbb{R}^{N\times1} q∈RN×1之后,就成为了在序列上的线性运算从而摆脱了softmax的非线性运算的影响,这也就是他为什么叫additive attention,也是本paper的trick所在。
在此再对 p p p也进行加性注意力机制,其每个 p i p_i pi的权重为:
β i = exp ( w k T p i / d ) ∑ j = 1 N exp ( w k T p j / d ) \beta_{i}=\frac{\exp \left(\mathbf{w}_{k}^{T} \mathbf{p}_{i} / \sqrt{d}\right)}{\sum_{j=1}^{N} \exp \left(\mathbf{w}_{k}^{T} \mathbf{p}_{j} / \sqrt{d}\right)} βi=∑j=1Nexp(wkTpj/d)exp(wkTpi/d)
其中 w k ∈ R d w_k\in\mathbb{R}^d wk∈Rd是一个要学习的向量参数。则global key vector即为 k = ∑ i = 1 N β i p i \mathbf{k}=\sum_{i=1}^{N} \beta_{i} \mathbf{p}_{i} k=∑i=1Nβipi。
-
同于以上步骤,通过global query vector q q q计算global context-aware key matrix得到global key vector k k k的过程,我们再用global key vector k k k来得到global key-value matrix,记为 u u u
也即 u i = k ∗ v i u_i=k*v_i ui=k∗vi。因为后面不再需要value vector再去启发别的向量,所以将 u i u_i ui经过一层线性变换层得到输出 R = [ r 1 , r 2 , … , r N ] ∈ R N × d \mathbf{R}=\left[\mathbf{r}_{1}, \mathbf{r}_{2}, \ldots, \mathbf{r}_{N}\right] \in \mathbb{R}^{N \times d} R=[r1,r2,…,rN]∈RN×d
至此,每个key和value向量都可以与global query/key向量交互以学习上下文表示。
-
最后,将经过线性变换后的输出 R ∈ R N × d R\in\mathbb{R}^{N\times d} R∈RN×d加上global query vector q ∈ R N × 1 q\in\mathbb{R}^{N\times 1} q∈RN×1,要注意二者维度不一样,即在 R R R的每一行都加上向量 q q q即为Fast-former的final outpout。(这一步第一次看感觉大家也觉得有点trick,作者未做出原因解释。)
-
以上1-5为one head,多个Fast-former层叠加成Multi-head机制。通过借鉴Linformer(Wang et al. 2020)的参数共享技术,共享了value和query的线性变换层参数以降低参数量和过拟合的风险。(作者并未做出原因解释,可能是Linformer中做出了相应的解释?)
2.3 Complexity Analysis
对于global query and key vectors计算复杂度都是 O ( N ⋅ d ) O(N\cdot d) O(N⋅d),总的计算复杂度为 O ( N ⋅ d ) 2 O(N\cdot d)^2 O(N⋅d)2,对比于原始经典Transformer则为 O ( N 2 ⋅ d ) O(N^2\cdot d) O(N2⋅d)
![image-20210909185730941](https://gitee.com/heisenberg1996/Typora_pictures/raw/master/image-20210909185730941.png)
3. Experiments
实验中使用Glove Embedding初始化token向量矩阵,本文选取了文本分类、新闻推荐及文本摘要的数据集进行验证。(后面更新的version的paper故意加上了新闻推荐的内容。)
3.1 实验效果
实验结果如下所示:
![image-20210909184146039](https://gitee.com/heisenberg1996/Typora_pictures/raw/master/image-20210909184146039.png)
综合来看竞争力不是很稳定。
在新闻推荐任务上的结果(MIND数据集):
![image-20210909184352393](https://gitee.com/heisenberg1996/Typora_pictures/raw/master/image-20210909184352393.png)
前面几种为常用的新闻推荐baselines。虽然最好的结果是集成的结果,但Fastformer还是比其他几个模型显著地高。
在文本摘要任务上的结果:
![image-20210909185550166](https://gitee.com/heisenberg1996/Typora_pictures/raw/master/image-20210909185550166.png)
整体而言效果不错。
3.2 时间效率比较
![image-20210909193750404](https://gitee.com/heisenberg1996/Typora_pictures/raw/master/image-20210909193750404.png)
可以看到Fast-former在时间效率上还是提升了很大一部分的。
3.3 不同组合特征的影响
针对2.2中第三点提到的问题,不同特征采用相加、拼接、点乘的组合方式的不同结果表现:
![image-20210909194124537](https://gitee.com/heisenberg1996/Typora_pictures/raw/master/image-20210909194124537.png)
点乘的方式还是显著的好很多。
3.4 不同参数共享方式的影响
综合来看还是采用Q-结合Layer-wise的效果最好,但其实好的并不显著,零点几个点。
4. 一些问题
-
Fast-former的final output为何还要加上global query vector?理论上 R = ( r 1 , ⋯ , r N ) R=(r_1,\cdots,r_N) R=(r1,⋯,rN)已经融合了 Q K V QKV QKV三者的信息了,为何没有消融实验。只用global query vector,只用 R = ( r 1 , ⋯ , r N ) R=(r_1,\cdots,r_N) R=(r1,⋯,rN)效果又分别如何?
-
这是否还是Transformer?
Quote from Yannic Kilcher:
Kind of like.
为什么不是?其实本文所命名的Q,K,V并不是原始Transformer中所提到的概念,你其实可以继续明明Q,K,V,X,Y等等好几竖列一列一列地应用加性注意力机制,并不限于这三个QKV矩阵。
为什么是?他真正体现为self-attention得地方还是用了softmax的地方即计算global query vector q q q的权重里面的 w q w_q wq,他能够根据上下文动态地计算一个句子中不同的token的权重。结合原文的式子来看
[1] α i = exp ( w q T q i / d ) ∑ j = 1 N exp ( w q T q j / d ) \alpha_{i}=\frac{\exp \left(\mathbf{w}_{q}^{T} \mathbf{q}_{i} / \sqrt{d}\right)}{\sum_{j=1}^{N} \exp \left(\mathbf{w}_{q}^{T} \mathbf{q}_{j} / \sqrt{d}\right)} αi=∑j=1Nexp(wqTqj/d)exp(wqTqi/d)
和
[2] q = ∑ i = 1 N α i q i \mathbf{q}=\sum_{i=1}^{N} \alpha_{i} \mathbf{q}_{i} q=∑i=1Nαiqi
[1]中的 w q w_q wq是self-attention中的query, q i \mathbf{q_i} qi是self-attention中的key,[2]中的 q i \mathbf{q_i} qi也是self-attention中的value。
而Fast-former后面的Key 和 Value都是根据global query vector 静态学习到的,没有自己的学习参数矩阵,每一个单独的头算出来一个query,他是什么后面就定死了,只能通过多头来实现全方位的语义挖掘。