浮点数比较大小_TernaryBERT:权重三值化、模型大小降至1/15,华为诺亚提出融合知识蒸馏的BERT超低比特量化技术...

本文介绍了TernaryBERT,一种结合知识蒸馏和量化的BERT模型压缩方法,实现了对BERT的任意低比特压缩。通过Weight和Activation量化,模型大小显著减小,同时保持高性能。实验结果在多个任务上展示了该方法的有效性。
摘要由CSDN通过智能技术生成

b31729c7e6ea1254e6e07790af79b188.png

       华为诺亚方舟实验室语音语义团队提出了一种新颖的面向大规模预训练语言模型的超低比特量化方法TernaryBERT。该方法可以对预训练模型进行任意低比特的量化压缩。在超低的2-bit(权重三值化)情况下,可达到对原始模型14.9倍的压缩,同时保留业务98%以上的性能,显著超过已有很多方法,如图 1所示。该工作目前已经被EMNLP 2020接收,论文链接: https://arxiv.org/abs/2009.12812

87843a83a84b6e24d3534576dbd43ecc.png

图 1各个方法模型大小vs. MNLI-m任务准确率

研究背景

       以BERT为首的、基于transformer结构的预训练语言模型已经成为了自然语言处理(NLP)领域的主流模型。但由于巨大的参数量和繁复的计算过程,预训练模型在当前工业界很多服务器上的应用和部署都存在着一定的挑战,更不用说像手机这样资源受限的终端设备。近一两年来,针对预训练语言模型的压缩成为解决这类问题的一个热门方向,针对神经网络的压缩方法主要有知识蒸馏、量化、剪枝和参数共享等。其中知识蒸馏的方法目前主要是从模型结

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值