What Makes Quantization for Large Language Models Hard?

本文是LLM系列文章,针对《What Makes Quantization for Large Language Models Hard?
An Empirical Study from the Lens of Perturbation》的翻译。

是什么让大型语言模型的量化变得困难?微扰透镜的经验研究

摘要

量化已经成为一种很有前途的技术,可以提高大型语言模型(LLM)的内存和计算效率。尽管性能和效率之间的权衡是众所周知的,但关于量化和LLM性能之间的关系仍有很多需要了解的地方。为了阐明这种关系,我们提出了一个关于量化的新视角,将其视为添加到LLM的权重和激活中的扰动。我们称这种方法为“微扰透镜”。使用这个透镜,我们对各种人工扰动进行了实验,以探索它们对LLM性能的影响。我们的研究结果揭示了扰动性质和LLM性能之间的几种联系,为均匀量化的失败案例提供了见解,并提出了提高LLM量化稳健性的潜在解决方案。为了证明我们的发现的重要性,我们基于我们的见解实现了一种简单的非均匀量化方法。我们的实验表明,对于权重和激活,这种方法在4位权重量化和8位量化上都实现了最小的性能退化。这些结果验证了我们方法的正确性,并突出了其在不牺牲性能的情况下提高LLM效率的潜力。

1 引言

2 相关工作

3 前言

4

  • 5
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

UnknownBody

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值