BERT加速 | 预训练模型参数量越来越大?这里有你需要的BERT推理加速技术指南...

本文探讨了如何加速BERT模型的推理过程,包括模型裁剪、知识蒸馏、量化等技术。通过裁剪不需要的Embedding和Transformer层,可以减小模型大小。知识蒸馏将大模型的知识转移到小模型,同时保持性能。量化技术通过降低权重和激活的精度,进一步减小模型体积。此外,计算流图优化和硬件加速也是提高推理效率的方法。总结来说,这些技术可以显著压缩模型并提升推理速度,适用于资源有限的线上环境。
摘要由CSDN通过智能技术生成

每天给你送来NLP技术干货!


来源:PaperWeekly   

作者:徐超    

单位:微软亚洲互联网工程院   

方向:文本相关性、多语言扩展

基于 Transformer 的预训练模型,尤其是 BERT,给各种 NLP 任务的 performance 带来了质的飞跃。如今 pretrained model + Fine tune 几乎已经成为 NLP modeling 工作的标准范式。然而这些模型却是越来越重,如 RoBERTa-large 有 3.55 亿参数,GPT2-xl 有 15 亿参数,GPT3 的参数达到了 1750 亿!

在有着三高问题(特点?)的互联网系统中使用这种模型面临着很大的性能瓶颈,甚至已经很难将一个 SOTA 的模型直接搬到线上进行实时的推理计算。本文将介绍最广为使用的预训练模型 BERT 的推理加速技术,这些技术可以应用到其他类似 Transformer Based 预训练模型中。

f1feb0f9cb717ae0904e84da79f7f764.png

65e861fda98486ac46073c1ba4b3ffd8.png

裁剪

BERT 模型包含一个 embedding 层与多个 Transformer 层。如果你的语料比较小,任务比较简单,可以对 BERT 模型做适当的裁剪: 

Embedding 层的裁剪:如果用的是 Multilingual BERT 可以将用不到的语言的 Word Embedding 裁剪掉。可以用 BERT 的 vocabulary 对你的 target 语料进行 BPE 切词,并统计词频,对于频次特别低的词的 Embedding 也可以裁剪掉。 

Transformer 层的裁剪:BERT 中包含了 12 层的 Transformer,大的有 24 层,其他模型甚至更多,但实际你的任务如果不是很复杂,可能未必需要这么多层。由于底层的 Transformer 善于捕捉细粒度的信息,一般有限选择底层的 Transformer 层。常见的选择方式是选择底部几层,如第 1、2、3 层,或者间隔选,如第 1、3、5 层。

1f7612dce9f8c0bdeb40cdf611c2781a.png

知识蒸馏

原始的 BERT 模型是过参数化的,存在很大的压缩空间。知识蒸馏应该是主要的模型压缩技术,他是将 BERT 模型(Teacher Model)里面的知识通过特殊的训练方式浓缩到一个较小的模型(Student Model)里面,这个较小的模型 performance 并没有显著下降甚至更好。在设计这个 Student Model 时也是从 Embedding 与 Transformer 层两个角度对 BERT Model 进行了压缩。

2.1 Embedding层的压缩

2.1.1 维度缩减

这是最简单粗暴的方式,BERT 模型的 Embedding 维度有 768 与 1024 两个版本,你在设计 Student Model 时可以用 512 甚至更低的维度。这时候如果想复用 BERT 的 Transformer 的参数,那么需要对 Embedding 做一个线性变换,将其转换成 768 或者 1024 维。可通过添加一个全连接层来实现。

b91f6efbfb28fe64cbd361620c67c6b4.png

当然也可以将这个线性变换用更复杂的 MLP 网络代替,常见变换如下,其中 DeFINE 模型里面使用的 HGT 取得了 SOTA 的效果,比一般的矩阵分解技术都好。

6de7dc61aae0f01efd2b0b101dbcc7a9.png

2.1.2 Factorized embedding parameterization

这是 ALBERT 里面提出的方式,将 embedding matrix 分解为两个大小分别为  和  矩阵,也就是说先将单词投影到一个低维的embedding空间 ,再将其投影到高维的隐藏空间 。这使得 embedding matrix 的维度从  减小到 。当  时,参数量减少非常明显。在实现时,随机初始化  和  的矩阵,计算某个单词的表示需用一个单词的 one-hot 向量乘以  维的矩阵(也就是 lookup),再用得到的结果乘  维的矩阵即可。

2.2 Transformer层的压缩

BERT 的 Transformer 层既深又宽,所以可以从深度与宽度两个维度进行压缩。众所周知,深度学习的主要威力就在深,所以直接减少 Transformer 结构的层数,会降低模型的非线性拟合能力,对 performance 产生很大影响,一个可行的方法是层与层之间的参数共享,即 Cross-layer parameter sharing。

2.2.1 Cross-layer parameter sharing 

这种方法是在 ALBERT 中使用的,即多个层使用相同的参数,它不能较少推理的时间但可以减少模型的体积。参数共享有三种方式:只共享 feed-forward network 的参数、只共享 attention 的参数、共享全部参数。 

2.2.2 宽度压缩 

另一个更优雅的方式是压缩宽度,使用窄深的模型,下图是 MobileBERT 用的模型架构。最终产出的是窄深的 MobileBERT,但需先训练一个比较宽的 model,然后将其知识蒸馏到 MobileBERT 中。其中宽模型与窄模型使用了相同的 Embedding 层,这个 embedding 层通过线性变换来适配各自的 Transformer 层。

ec776017b9299d313b33d73f48f53832.png

2.3 蒸馏方法

BERT 的蒸馏方法已经有过很多研究,如 BERT-PKD、DistilBERT 以及 TinyBERT 等,这些方法的卖点主要在 loss 的设计上。这里介绍下 TinyBERT 的 Loss 设计,应该说考虑的比较全面主要包含三大块:Attention Loss,Hidden Loss 与 Embedding Loss。

67833e99c59816d4e3024f7a24c39e2e.png

Attention Loss:Teacher 与 Student 的每层的注意力向量 A 的均方误差,其中 h 是 attention 的头数。

b3dd88e830649b273f69fd6333b659ef.png

Hidden Loss:Transformer 层的输出的均方误差,由于输出维度不一致,需要使用  进行维度转换:

020b66f3714b4d088f7f6a789bfe0d57.png

Embedding Loss:同样使用均方误差定义,并使用  进行维度转换:

9c763daa7cb1b197a77538bd29023694.png

2.4 Task Specific蒸馏

前面的蒸馏方式是针对 BERT 模型本身的,学习的是 BERT 中通用的语言表征方式,并未涉及到具体的任务,这种蒸馏被称为 Task Agnostic 蒸馏。预训练模型只是提供了一个初始参数,针对具体的任务,还要在相应的数据集上做微调,得到我们具体任务的 model,然后我们对这个针对具体 NLP 任务的 model 做蒸馏,也就是 Task Sepcific 蒸馏。

e93c57f23d5728b0c01245b3ee7fb215.png

2.4.1 完整蒸馏流程

以 TinyBERT 作为 Student Model 为例, 整个蒸馏的流程为:

1. 用上一小节介绍的 Task Agnostic 方法将 BERT 中的知识蒸馏到 TinyBERT 中; 

2. 收集具体任务相关数据集,然后用 BERT 模型在这个数据集上做微调得到 Teacher Model;

3. 以第一步的 TinyBERT 的参数来初始化 Student Model,用 Task Specific 蒸馏方法将 Teacher Model 的知识蒸馏到 Student Model。

Task Specific 的损失函数一般采用:

Teacher Model 输出的 logits  与 Student Model 输出的 logits  之间的均方误差:

b6e758ee6d8595ed3d617a28b64bcd7d.png

对 Student Model 的 logits 升温后的交叉熵损失:采用一个广义的 softmax 函数,T 为温度,值越大,输出的概率分布越平缓,越小则分布越陡峭,当 T=0 时就变成了 one-hot 编码。在做 inference 时 T=1,在做训练时为大于 1 的某个数。

597ce1c42586e9087abaf85ea708d0e1.png

2.4.2 Capacity Gap

在知识蒸馏问题中,并非 Teacher Model 越好 Student Model 就越好。当 Teacher Model 比 Student Model 大很多时,Capacity Gap 问题将会变得非常严重。下图中的 Student Model 都是 ResNet14,当 Teacher Model 的体量超过 ResNet32 时,蒸馏的结果却出现了明显的 drop。同时 KD Loss 随着 Teacher Model 的增大而不断增加,说明 Student Model 对 Teacher Model 的模仿能力或者拟合程度越来越低。

6a4951bd57af8e7e374d83cd5f099d66.png

2.4.3 Spherical Knowledge Disitllation (SKD)

一般随着模型的增大,会对预测的 label 更加 confident,即分配更高的概率。如下图左侧,Teacher Model 对预测的 label 分配的概率时 0.984,而 Student Model 分配的概率是 0.73。而常规的知识蒸馏使用了 Soft Target,即让 Student Model 去学习 Teacher Model 的输出概率分布,然而 Student Model 在体量上的劣势就注定了它很难在这方面向 Teacher Model 看齐。

d1b2ae6aad4593614434ba12db67716c.png

一个解决方案是,钝化 Teacher Model 的输出概率,使得 Student Model 容易模仿。具体做法是对模型输出的 logits  进行尺度变换,成为一个单位向量 ,然后乘以 logits 的均值 ,使得变换后的的 logits 跟原始 logits 维持在同一个量级,这么做是为了尽量减少对有监督学习的影响。最终的 SKD Loss 为:

9bf387ac5cd5f338bb9a7fde152dab73.png

2.4.4 Multi-Stage Distillation

另一个缓解 Capacity Gap 的策略是使用多阶段的蒸馏,一般使用两阶段,引入一个 size 适中的网络,即 Teacher Assistant,作为 Teacher 与 Student 之间的过渡。Teacher 与 TA 以及 TA 与 Student 之间的 Capacity Gap 都不是很严重,先将 Teacher 的知识蒸馏到 TA,再将 TA 的知识蒸馏到 Student,这就避免了 Gap 过大时蒸馏效果出现剧烈 drop 的情况。

53a59577f6cda53b94dd2b0e4b61169b.png

那么 TA 的 size 选多少合适呢?一般并不是选择两者体积的平均,而是在各自单独训练的情形下,性能介于 Teacher 与 Student 之间的网络的 size。例如,在下图重蓝色的折线表示随着模型层数的增加,模型的准确率,如果 Student 是两层,Teacher 是 10 层,那么 TA 应该选 4 层,因为它的性能接近前两者的平均值。

b3025d242ae5c964da323aee3239b18b.png

2f72ff7d7a5d556088f20029b33b08fc.png

量化

量化是一种信息的有损压缩方式,在神经网络里面的应用是将高精度的浮点数运算转化成低精度的整数运算,以加速模型的而推理计算。

a14ada84052d301ae410395ee9736e60.png

量化方式有两种:

训练后量化:模型训练好之后再进行量化,这种方法一般对大模型效果不错,对小模型则效果比较差;

训练感知量化:在训练过程中对模型参数量化,inference 与 training 使用的是量化过后的 weights 和 activation。

3.1 对称线性量化

为了保证精度,一般都是用训练感知量化。在 BERT 中经常采用的量化算法是对称线性量化(symmetric linear quantization)。

a156b82f78fff2a807e80044556e8ef8.png

其中  是输入数据 x 的尺度参数,M 是当量化位数为 b 时的最大量化结果,即:

aa839c58e616c8bd36aff3cd312679cf.png

在训练过程中 weights 的尺度参数可以设为:

23fd47d73daea0f705d9d0c8b0499b73.png

activations 的尺度参数可基于下式,其中 EMA 为指数加权平均。

33449e630e927b4fd768159b49b12e60.png

3.2 Integer Only BERT

这种量化的目的是是的整个推理过程中只有整数运算,包括量化部分与激活函数的计算,这样一来就可以使用 Turning Tensor Cores 或者传统的 integer-only ARM 硬件来获得进一步的加速效果(大约 2.4~4 倍)。

3.3 改进量化

用一个固定位数(如最常见的 8 位)的整数对所有参数进行量化是有点粗暴的,可以从两个方面进行改进:

混合精度量化:不同的参数对量化误差的敏感程度不一样,所以使用不同的位数进行量化,对于 Activation 可以选用更高的位数,如 16 位,而对于 Embedding 可以选用更低的位数,如 2~4 位。

分组量化:增加量化的粒度可以提升效果但会增加计算成本,一个折衷的方式是对参数进行分组,组内的参数共享量化参数(如尺度参数与位置参数),最常见的是对 Embedding 的维度进行分组。

3.4 BinaryBERT

量化的极限是 BinaryBERT,模型的 Weights 与 Embeddings 都用 1 位的整数表示,即要么是 0 要么是 1,模型的体量可以缩减为原来的 1/24,推理速度提升一个数量级。

ac18e6cc74e094f517fe09ba92d65aa8.png

但 BinaryBERT 难以直接训练,一个折中的做法是先训练一个 ternary BERT(量化位数 2bit),然后采用一种被称为 ternary weight splitting (TWS) 的操作获得 BinaryBERT 的权重,最后对这个 BinaryBERT 做微调。TWS 操作如下:

bfcbe991142ff7fa96fd33800428c423.png

其中:

a27ec0e6e4725de248bcd9b89a4e0e66.png

有点类似于用两个 Binary 数据来表示一个 Ternary 数据,所以 BinaryBERT 的 size 也是 ternary BERT 的两倍。

8f1e364288c6916c4470a0b43bd04c5e.png

其他方法

4.1 计算流图优化 

神经网络是一个计算流图,原始的执行流程还可以还很多优化,比如算子的合并,运行时不需要部分的裁剪等。常见的针对神经网络计算流图优化的引擎主要有 ONNX Runtime 与 TVM,其中 ONNX Runtime 使用最广。

ONNX Runtime 是由微软推出的推理优化框架,支持多种运行后端包括 CPU,GPU,TensorRT,DML 等,并且对通用的 ONNX 格式模型提供了原生的支持。其基本原理是先执行一遍模型的推理,然后自动将模型中用不到的部分修剪掉,并将部分算子做了合并,还能对网络的拓扑结构做优化,最终生成一个精简的静态计算流图。

9df589b287d6361123d6e2a226b45b81.png

使用起来也非常简单,只要加载模型然后执行一次推理运算即可,具体详见官方文档:

https://onnxruntime.ai/docs/api/python/api_summary.html

cc5617ddb4cf85635001b50e35509b7c.png

4.2 硬件加速 

前面介绍的推理加速方法都是对模型本身的优化,换个角度思考,也可以从硬件方面去进行加速,不过由于硬件门槛高,这方面的案例并不多,不过大厂好像都在这块有投入。

神经网络处理器:由于芯片定制化生产技术的成熟,谷歌在 2015 年就推出了专门用于神经网络计算的 TPU,如今 AI 应用润物细无声,占据了大部分的算力消耗,各大硬件厂商都在发力神将网络处理器(NPU)。

ASIC:在某些人眼中,可能任何处理器都不是最优的只有 ASIC 才是最优的,也就是为某个应用定制专业的芯片。这块,如果模型已经高度产品化了,如语言识别、图像识别、机器翻译等可以考虑使用。

FPGA:这块也炒的比较火,微软已经在数据中心使用了大量的 FPGA 代替 CPU 做科学计算。单从算力本身来说 FPGA 的主频远比不上 CPU 与 GPU,但他的优势在于并行度,对于大的矩阵计算,CPU 需要很多时钟周期才能完成,GPU 拓展了带宽比 CPU 有了明显的优势,但 FPGA 在并行上有无与伦比的优势,只要门电路足够,可以根据需要不断增加并行度,并且它完成一件事情的时间是确定的,每个并发完成的时间完全一致,不存在时间片、线程与资源冲突问题。FPGA 的另一个优势是完成同样的计算功耗比 CPU 低很多,GPU 就更不用说了。但这一块实际使用起来并没有那么容易,可以应用的场景非常少,下一节做个简单的案例介绍。

4.3 FPGA硬件加速

FPGA 本身的主频非常低,跟 CPU 差远了,而且存储资源非常小,数据吞吐能力差,完全用 FPGA 实现一个 BERT 模型理论上不是不行,但肯定是土豪的玩具。一个折衷的办法是与 CPU 协同工作,把 CPU 不擅长且 memory cost 较低的矩阵计算任务交给它,也就是 BERT 中的 Encoder 层,CPU 主要处理 Embedding 层与 Task Specific 层。当然,由于 FPGA 的 memory 限制,需要把 BERT 模型量化成 Integer Only BERT,整个系统的架构如下:

e2d7e29f40ee7a0ef8e57720d14314e4.png

CPU 计算的中间结果与模型的权重都存放在 off-chip memory 上,通过 AXI4 接口传送给 FPGA。FPGA 内部实现了三个计算单元用于加速计算:

1. PE (Processing Element):用于不同位宽的矩阵乘法计算。

2. Softmax Core:用于进行 Softmax 计算。主要是将  的结果转化为 Attention 权重,但指数计算非常消耗资源。好在 Softmax 函数具有平移不变性,而所有数据都是整数,所以使用了一个 Lookup Table 来代替指数变换。

3. LN Core:用于 Layer Normalization 计算,由于 LN 运算中很多 Element Wise 的加乘运算与非线性变换,单独依靠 PE 无法完成,所以针对这部分做了专门的设计。整个数据流图如下,FPGA 从 off-chip memory buffer 中读取数据,为了减少 FPGA 的数据吞吐量,将每个阶段分成几个子阶段,每个子阶段只加载需要的数据,最后将计算结果写入 goff-chip memory buffer 供 CPU 做 Task Specific 层的运算。

e8bc84638e90869e7860dc28efcdffac.png

4b5e0de108138f76bda502c47621cdc4.png

总结

面这些技术未必全部都需要做,一般经过蒸馏与 ONNX Runtime 的推理优化,可以将模型从 1~2G 压缩到 30~60M,推理速度也至少提升一个数量级,基本满足线上需求,模型的 performance 的 drop 一般在 5% 以内。量化虽然能显著缩小模型的体积,但对小模型 ROI 较低,一般蒸馏与量化两种方法二选一就行了,很少同时做。FPGA 本身算力较差,很难提升推理速度,与 CPU/GPU 相比,主要优势在于更高的并行计算能力与更低的功耗比,但高度定制化,使用门槛高,设计的不好很可能会弄巧成拙,主要用在资源受限的边缘计算设备上。

outside_default.png

参考文献

outside_default.png

V. Sanh, L. Debut, J. Chaumond, and T. Wolf. Distilbert, a distilled version of bert: smaller, faster, cheaper and lighter, 2020. 

S. Sun, Y. Cheng, Z. Gan, and J. Liu. Patient knowledge distillation for bert model compression, 2019. 

Sachin Mehta, Rik Koncel-Kedziorski, Mohammad Rastegari, Hannaneh Hajishirzi. DeFINE: DEEP FACTORIZED INPUT TOKEN EMBEDDINGS FOR NEURAL SEQUENCE MODELING, 2020. 

Zhiqing Sun, Hongkun Yu, Xiaodan Song, Renjie Liu, Yiming Yang, Denny Zhou. MobileBERT: a Compact Task-Agnostic BERT for Resource-Limited Devices, 2020. 

Jia Guo, Minghao Chen, Yao Hu, Chen Zhu, Xiaofei He, Deng Cai. Reducing the Teacher-Student Gap via Spherical Knowledge Disitllation. 

Seyed-Iman Mirzadeh, Mehrdad Farajtabar, Ang Li, Hassan Ghasemzadeh. Improved Knowledge Distillation via Teacher Assistant: Bridging the Gap Between Student and Teacher, 2019. 

Ofir Zafrir, Guy Boudoukh, Peter Izsak, Moshe Wasserblat. Q8BERT: Quantized 8Bit BERT, 2019. 

Sehoon Kim, Amir Gholami, Zhewei Yao, Michael W. Mahoney, Kurt Keutzer. I-BERT: Integer-only BERT Quantization, 2021. 

Yelysei Bondarenko, Markus Nagel, Tijmen Blankevoort. Understanding and Overcoming the Challenges of Efficient Transformer Quantization. 2021. 

Zejian Liu , Gang Li , Jian Cheng. Hardware Acceleration of Fully Quantized BERT for Efficient Natural Language Processing, 2021.


投稿或交流学习,备注:昵称-学校(公司)-方向,进入DL&NLP交流群。

方向有很多:机器学习、深度学习,python,情感分析、意见挖掘、句法分析、机器翻译、人机对话、知识图谱、语音识别等。

7400736140fccd4568ecd1da1f944e3b.png

记得备注呦

整理不易,还望给个在看!
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值