超硬核 ICML’21 | 如何使自然语言生成提速五倍,且显存占用减低99%

文 | 炼丹学徒
编 | 小轶

我们忽略掉引言和介绍,直接把工作的效果丢上来,相信就足够令自然语言生成的相关同学心动——对于任何一个已有的Transformer生成模型,只需根据本文算法更改attention的计算顺序,就可以实现

  • 成倍速度提升!

  • 显存使用量降低到原来百分之个位数!

  • 不需要重新训练!

  • 保证输出结果与原来完全一致!

以BART为例,本文方法可以把显存使用率降低为原来的96分之一!是的,不需要在效率和质量中做权衡!无脑地将本文策略应用到你的Transformer里,庞大的自回归预训练的生成模型速度也会变得可以接受!你甚至可以大胆地去和蒸馏模型、剪枝模型、(半)非自回归模型比较速度。

仔细想想,我们自然语言生成的过程中,其实只有编码和解码是必须要计算的开销,而作者们发现,显卡计算的时间远小于CPU操作和显存IO的时间,并最终进行理论分析降低显存的耗时、优化代码降低CPU操作的耗时,显著降低显存占用和提升生成速度。本文正是聚焦在了显存优化的部分。

对于该方法的理论描述先是发表在了ICML 2021上。之后文章作者又将EL-Attention等相关技术封装成了一个工具包供大家一键调用,项目名称FastSeq,在2021 ACL Demo paper里获得了5 5 4的高分,并被两位审稿人推荐为best demo paper。

感兴趣的读者可以直接安装FastSeq工具包,仅需要一行代码引入该库函数,只要你用的是常见的Facebook Fairseq或者Huggingface Transformers中的模型,import 完 FastSeq,甚至不需要改代码,就可以获得如下的加速效果

论文题目:
EL-Attention: Memory Efficient Lossless Attention for Generation

FastSeq项目链接:
https://github.com/microsoft/fastseq

论文链接:
https://arxiv.org/pdf/2105.04779.pdf

Arxiv访问慢的小伙伴也可以在 【夕小瑶的卖萌屋】订阅号后台回复关键词 【0609】 下载论文PDF~

简单回顾Transformer的注意力计算

注意力层中,输入是Q,K,V即query、key、value矩阵,输出是Q、K、V隐状态维度相同,与Q的批大小、序列长度相同的隐状态矩阵。训练过程中,自注意力层Q=K=V=隐状态H;编码器-解码器注意力层中,Q=解码器的隐状态H,K=V=编码器的隐状态H。推断过程中,自注意力层K=V=H是已经输出的前文隐状态,Q是预测的下一个词;编码器-解码器注意力层中,K=V=H是编码器的隐状态,Q是解码器里预测的下一个词。

计算时,我们先把输入的Q,K,V线性变换,得到多头的隐状态变小一些的 (i代表第几个头),然后对于每一个头, 点乘归一获得注意力分布,用这个加权把 的值取过来,再把这个个头的低纬度信息线性方便换到之前Q,K,V的维度上作为这个头的隐状态计算结果,把每个头i的隐状态结果相加获得最终结果。在自回归推断时,无论在自注意力层,还是编码器-解码器注意力层中,Q都是一个单词,而K和V为输入编码后的隐状态或者已经解码的前文,都是比较长的内容。为了表达方便,后续描述中, 为经过线性变换前的隐状态,经过线性变换后的记为 ,表示多头注意力中第i头的内容。(详细的公式描述可以看推导章节

推断过程中,由于需要进行beam search,所以往往把编码器的输出重复beam size份并cache起来。其次,因为每次只能预测下一个词,所以自注意力层、编码器解码器注意力层里的 会被cache起来避免重复计算,而 是要预测的下一个词的隐状态,因此不可能被cache起来,是我们想要计算的东西。

Transformer Beam Search为啥这么慢

我们回忆一下Transformer生成训练的时候,forward一次的速度是非常快的,但是 为什么真正去 beam search 然后推断 inference 的时候却很慢

首先我们知道,训练和推断的时候,编码器端的运行是相同的,所以变慢的原因都在解码器端。即使我们设置beam search增加了一些计算量,但是实际上我们等待的时间远远大于理论上增加的计算量,把常见的生成任务的测试集完整的生成一遍结果,动辄几个小时的等待时间,到底花在哪里了呢?通过每个调用函数的时间消耗分析,作者得出了结论是:推断的代码中,把完整的矩阵运算打散成了每次只能预测后续一个词,零散的运算(从训练时 teacher forcing 的完整矩阵的Q,K,V计算,变成了推断时每次Q都只有一个词,去和K,V自回归地计算若干遍)从而显存的带宽成为了推断速度的瓶颈。

由于有cache技术的存在,beam search 时我们往往把计算过的隐状态存起来反复使用以避免重复计算(如果不cache,会更慢,因为要反复计算重复内容。后续分析会告诉我们,cache的速度瓶颈在显存IO,不cache的速度瓶颈在计算速度),频繁的显存内容搬运和粗放的显存使用,导致GPU memory IO的时间超过了计算时间,显卡一直在等显存内容的搬运。如果再加上去除重复的输出等等CPU的操作,速度就更慢了。

我们可以再看一下本篇推送引言部分的推断时长分布图。左侧优化前的推断时间里,CPU相关的后处理占用了最多的时间,消耗了6.8秒;其次是库函数中往往支持去除相邻的连续的多少个词的连续出现的问题,也就是图中的ngram block函数,去处理反复生成相同单词短语的问题,消耗了4.5秒。显存的搬运也是时间的大头,3.5秒,比真正解码计算的时间3s要多。编码只用了最少的时间,因为只有一次简单的forward。所有的这些时间里,只有编码和解码是必须消耗的,EL-Attention解决掉了cache的问题,FaseSeq项目的其他部分解决了CPU相关计算的问题,最终把不必要的计算去除,优化达到耗时最少。本篇后续只介绍EL-Attention部分的提升。

Transformer 推断过程显存IO瓶颈

根据论文作者的分析,Transformer自然语言生成时的显存IO瓶颈主要由以下三个问题组成:

1)在解码器中的编码器-解码器注意力子层,把编码器的输出经过每个子层不同的线性变换得到每一层都不一样的多头矩阵 矩阵存储。这就导致, 层的解码器,需要把encoded hidden states存 。甚至由于开了beam search,当前Transformer的各个库函数中,解码器中的每一层都还把自己层计算出来的编码器K,V又要再重复beam size遍,占用了大量的显存空间。解码器中的 自注意力子层 也有相同的问题,存储的同样是经过线性变换后的多头矩阵

2)在beam search过程中,因为每一步的宽度搜索,都会导致beam candidates的得分发生变化从而导致重新排序,以及生成结束符时从candidates队列向finished队列搬运的过程,从而导致大量的memory IO消耗

3)在显卡中,如果两个三维矩阵运算时,他们的第一维大小相同,则运算通过并行运算其中的各个二维矩阵运算完成。推断过程中,Q只是下一个词的隐状态,而K,V则显存占用比Q大得多,描述整个上文/输入信息。Q对K和V的运算,反复加载大量显存占用的K和V,增大IO吞吐量负担。(EL-Attention后面则减小query的第一维,增大query第二维,从而通过一次矩阵运算得到完整的各个头的计算结果,避免了反复加载key的值)

优化方案

后续的一切优化和计算的更改都是保证计算结果与原始Transformer完全一致的情况下展开和推导的

为了推导出更适合推断过程的计算顺序,降低存储量,让矩阵的运算更高效,还能保持输出结果一致,本章节介绍EL-Attention如何进行MultiHead Attention(多头注意力计算)的等效替换。本章节里,仍然是使用 代表线性变换前的隐状态, 代表线性变换后的低多头注意力里第i头的结果,

相比于存储解码器段每层计算过的 ,EL-Attention只缓存经过线性变换之前的隐状态H,由当前要预测词的Q和线性变换前的H,直接计算得到注意力层的结果,从而将原始的注意力计算

变成:

很明显的我们看到,原始计算里使用的是经过线性变换后的多头 进行计算,而EL-Attention中,则直接使用输入的 进行计算。这就是本文的核心做法,只cache隐状态H而非多个低维度的多头 ,从而进行更高效的矩阵运算,显著减少显存占用。

其中, 是两个线性变换。为了表达方便,我们略去了部分计算比如矩阵运算中的bias。完整的计算方法可以看下面的推导章节。此时,我们可以抛弃所有的计算过的 缓存,从而只缓存一份隐状态 即可。其中, 无需把Q计算到隐状态变小的多头状态进行零散矩阵运算,而是直接在原本的hidden size进行更加完整的矩阵运算,详细内容见推导章节如下:

推导

本章节我们一起看一下推导,确保EL-Attention的计算结果是和MultiHead Attention完全一致的。回顾传统的注意力计算方法,是将输入的 Q,K,V 线性变换得到维度更小,但是多份的多头隐状态 ,对于每一个头i,进行注意力计算,然后再用 线性变换到之前隐状态的大维度,把每个头的隐状态加起来。

我们假设原本 的隐状态是 维的( 均为 维),多头数为 ,每一头的隐状态是 维的,则 ,,

其中,, 。我们记 ,则:

其中,

最终我们得到,

在推断过程中,

降低了多少

直观的减少显存使用

显存占用:假设编码器-解码器注意力层 beam search 的 size 大小为b,解码器 层,则原始的 beam search会缓存 倍的encoded隐状态。其中的 倍是因为当前的库函数实现不佳,重复beam size份造成的,可以简单的优化掉,剩下的 倍通过EL-Attention优化掉。即,编码器-解码器注意力子层中,把encoded hidden states的显存占用降为 。类似的,解码器的自注意力子层中,可以把显存占用降低1/2。

详细的计算复杂度和显存优化

进一步分析,EL-Attention分析注意力计算中三个步骤的计算复杂度和显存占用复杂度。它把注意力的计算分解成三部分进行分析,第一部分是Build Key and Value(即原本计算中的把H线性变换到多头的 ),第二部分是Build Query(即原本计算中的把Q线性变换到多头的 ),第三部分是进行注意力的计算

首先看Build Key and Value,传统的做法中,如果不cache,则需要每次进行 的计算,然后把计算结果存起来(存储复杂度 )。他的计算复杂度高,需要反复重新计算,cache则相反。而EL-Attention中,由于直接使用原始的输入K,V进行计算,无需计算出多头的那些 ,因此计算和显存都为0。

其次是Build Query,对于要预测的下一个词的计算是绕不开的,所以无论传统做法中是否cache,Q都要被计算到多头的 ,因此计算复杂度和显存使用相同。EL-Attetnion的这一步是 函数,由于多乘了 将多头的低hidden size隐状态变成原本的高hidden size计算,因此此处显存多使用了 (多头数)倍。然而这个其实很小,因为毕竟Q只有后续要预测的那一个单词的隐状态。最终是注意力计算部分,可以看到,因为没有缓存那些计算过的 ,EL-Attention的计算复杂度增大为 倍,与此同时,显存消耗降低了。

为了比较上述三个步骤,用计算换取减少显存的操作是否收益大于付出,EL-Attention使用下面的图来表示这种权衡的收益。下图中,横轴是显存的使用量,纵轴是计算量,面积代表时间消耗。传统做法的时间消耗由三部分组成,图中为无边框的蓝色的大圈,灰色的大圈和橙色的小圈。EL-Attention的时间消耗由两部分组成,虚线边框的灰色小圈和橙色圈,可以看到,由于重新平衡了指令密度,显存消耗和计算消耗,总时间消耗(两个虚线边框圆的总面积)明显小于传统做法(三个无边框圆的总面积)。

实验结果

首先,因为EL-Attention优化后的输出结果与优化前的Transformer模型完全一致,不需要重新训练,只需要优化推断的计算顺序,因此performance和输出结果,原始论文中没有展示。为了分析速度,首先,EL-Attention使用固定的假输入去分析速度影响,他固定了编码器端输入1024长,然后尝试不同的解码器段长度、不同的beam size去比较EL-Attention和原始attention的速度。我们可以看到,cache机制虽然增加了显存使用,但因为避免了重复计算,明显比不cahe的速度快,而EL-Attention则又明显的优于带cache的beam search生成。

此外,EL-Attention在真实模型和数据集上开展试验。它使用Transformer,BART,GPT-2作为实验模型,其中Transformer和BART为编码器-解码器结构,GPT-2为只有解码器的结构,在SQuAD 1.1问题生成、XSum摘要任务、CNN/DM摘要任务上开展试验。beam size越大,EL-Attention的加速效果越明显,EL-Attention作者很保守的把所有模型的beam size都开的比较小,只有4,就有了若干倍的速度提升。

EL-Attention由于显著地减少了显存的占用,所以可以在有限的显存里,把batch size开大很多倍。通过增大batch size的方法,继续提高GPU的使用率和推断吞吐量(下表的显存占用对比令人吃惊):

总结

EL-Attention通过分析自然语言生成中的速度瓶颈,精确定位到了显存IO的问题,然后通过理论分析显存的计算方案,找到了若干致命问题,对于已经训练好的模型,通过提出新的计算顺序和算法来在对原输出无损的情况下,优化计算量和显存使用,从而达到了降显存、加速生成的效果。

萌屋作者:炼丹学徒

在微软搬砖的联培博士在读生,擅长烹饪和摸鱼,被迫掌握丰富的增肥和减肥经验。祝大家吃好喝好,减肥成功。

作品推荐

  1. 把数据集刷穿是什么体验?MetaQA已100%准确率

  2. Transformer太大了,我要把它微调成RNN

后台回复关键词【入群

加入卖萌屋NLP/IR/Rec与求职讨论群

后台回复关键词【顶会

获取ACL、CIKM等各大顶会论文集!

  • 0
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值