【论文阅读】1_A Survey on Model Compression and Acceleration for Pretrained Language Models

本文主要探讨了预训练语言模型的模型压缩和加速技术,包括权重共享、低秩分解、修剪、量化等方法,旨在减少计算量、推理时间和碳足迹,提高效率和模型的可部署性。论文还讨论了忠诚/保真度、鲁棒性等评估指标,并强调了当前面临的挑战和未来研究方向。
摘要由CSDN通过智能技术生成

前言

个人笔记,没有深入的思考,可能没有参考可能。

论文信息

A Survey on Model Compression and Acceleration for Pretrained Language Models

发表单位:University of California, San Diego

作者:Canwen Xu, Julian McAuley

发表会议: AAAI 2023

论文地址:http://arxiv.org/abs/2202.07105

发布时间:2022.2.25(v1) 2022.11.29(v2)

ABS

  1. 高能源成本和较长的推理延迟阻碍了基于transformer的预训练语言模型 (PLM) 得到更广泛的引用,包括边缘计算和移动计算。

  2. 高效的NLP研究旨在综合考虑NLP整个周期包括数据准备、模型训练和推理的计算量时间和碳排放。本文重点关注推理阶段,并回顾了预训练语言模型的模型压缩和加速的当前进展状况,包括基准、指标和方法。

INTRO

(技术方面)PLMs的高计算量消耗引起了关注,为了解决这个问题,高效推理是使 ML 模型的推理更快(时间效率)、消耗更少的计算资源(计算效率)、更少的内存&#x

评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

zoetu

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值