华为诺亚方舟实验室语音语义团队提出了一种新颖的面向大规模预训练语言模型的超低比特量化方法TernaryBERT。该方法可以对预训练模型进行任意低比特的量化压缩。在超低的2-bit(权重三值化)情况下,可达到对原始模型14.9倍的压缩,同时保留业务98%以上的性能,显著超过已有很多方法,如图 1所示。该工作目前已经被EMNLP 2020接收,论文链接: https://arxiv.org/abs/2009.12812
图 1各个方法模型大小vs. MNLI-m任务准确率
研究背景
以BERT为首的、基于transformer结构的预训练语言模型已经成为了自然语言处理(NLP)领域的主流模型。但由于巨大的参数量和繁复的计算过程,预训练模型在当前工业界很多服务器上的应用和部署都存在着一定的挑战,更不用说像手机这样资源受限的终端设备。近一两年来,针对预训练语言模型的压缩成为解决这类问题的一个热门方向,针对神经网络的压缩方法主要有知识蒸馏、量化、剪枝和参数共享等。其中知识蒸馏的方法目前主要是从模型结