精度与通用性不可兼得,北大、华为理论证明低精度下Scaling Law难以实现

2b2b2c8ddb60dbcf4297b6080d568443.gif

大模型量化通过将模型参数从较高的精度(如 bfoat16)压缩到低精度(如 int8 或 int4)来降低模型推理的开销,提高模型推理的速度。在大语言模型的实际部署中,量化技术能够显著提高大语言模型推理的效率。

但近日,来自哈佛大学,MIT,CMU,斯坦福大学和 Databricks 的研究团队通过大量实验总结出了大语言模型关于精度的 Scaling Law,实验发现模型的量化压缩会较大影响大语言模型的性能。

无独有偶,来自北大和华为的研究团队近期则从理论角度研究了量化对于大模型通用性的影响。具体而言,研究者关注了量化对于大模型数学推理能力的影响。其研究理论表明足够的模型精度是大模型解决基本数学任务的重要前提,而量化会大大降低大模型在基本数学任务上的表现,甚至提升足够参数量也无法弥补。

d2152c0b7b02cd29a561648d689e835b.png

论文题目:

How Numerical Precision Affects Mathematical Reasoning Capabilities of LLMs

论文作者:

冯古豪、杨铠、古云天、艾心玥、罗胜杰、孙嘉城、贺笛、李震国、王立威

作者单位:

北京大学、华为诺亚方舟实验室

论文链接:

https://arxiv.org/abs/2410.13857

10ec4118e1654bb5d6635245b293053c.png

量化降低了模型的基本数学能力

数学推理能力是大语言模型的一项重要能力,也是大语言模型走向通用人工智能的关键能力之一。然而,相较于经典的自然语言处理任务,数学推理往往需要严格的逻辑和准确的中间结果。在各种各样的数学推理任务中,算术能力是大语言模型解决各类复杂的数学问题的基础。

更需要注意的是,大模型在处理数值的时候,会将一个数 “切分” 成一段一段的数字,例如:数字 1234.5678 在大模型中可能被编码为 “12” “34” “.” “56” “78”,如此编码后的信息是否可以被正确理解进而完成算术任务也是一个疑问。

本工作研究者以基本的算术能力为切入点,研究了不同精度的 Transformer 在解决基本数学任务上的能力差异。下图展示了一些相应的例子。为了反映大模型对长数字的实际解码方式,在这些任务中,运算数中的每一数位均以一个独立的 token 作为大模型的输入,大模型的输出也是从高位往低位逐数位地输出。

7aa700ba4202548513da79a1471bf085.png

在本工作中,研究者分别使用对数精度 Transformer 和常数精度 Transformer 的理论模型来刻画标准精度大语言模型和量化后的低精度大语言模型。其中,对数精度指的是 Transformer 内部单个的神经元至多能够存储由 O(logn) 比特表示的实数,这里 n 指的是模型所能处理的最大序列长度。

而常数精度指的是 Transformer 内部单个的神经元只能够存储至多 c 比特表示的实数,这里的 c 是一个与序列长度无关的小常数。这里,实数可以由定点数或者浮点数格式表示。

当前主流的大语言模型,包括 GPT 系列、Claude 系列或者开源的 LLAMA 系列,能够处理的最大序列长度一般在 4k 到 128k 不等。在这样的序列规模下,对数精度和常数精度较好地刻画了量化前后的精度差异。

之前的研究结果表明,标准精度 Transformer 具备解决这些基本算术任务的能力。这表明合适的精度能够保证大模型具有解决相应基本数学任务的能力。然而本工作理论证明当大语言模型经过量化、精度降低后,模型的能力受到了显著的影响。

当使用低精度模型时,模型在多整数相加、整数相乘的任务上需要超多项式的模型参数量。这表明当精度不足时,即便充分增大模型尺寸 (scaling parameters),其也难以获得完成这些基本算术任务的能力。

下表总结了相应的理论结果,表明了不同精度下各基本算术任务所需模型宽度的理论结果。其中,蓝色代表模型可以在较小的尺寸内解决相应的任务,而红色代表模型无法在可接受的尺寸内解决相应的问题。可以发现,标准精度的大语言模型能够轻松解决算术的任务,然而经过量化后低精度的大模型,在解决基本算术任务上的能力出现了明显的缺失。

0a108b4677aa6c825099bb56ae7f4da9.png

2e6027230443475e37d080b285832876.png

实验验证

除了理论推导,研究者进行了大量实验来验证理论结果。研究者在算术运算的数据集上训练了一系列小模型,在小模型上的训练结果表明,在多整数相加和整数相乘任务上,提升精度能够使相同尺寸的模型解决更大规模的问题。

244a0eadab84edf75984283fc5fbe642.png

此外,研究者还在 LLaMA3.1-8B 模型上进一步进行了一些系列实验,实验结果同样证实,在使用 int4 进行量化之后,在大语言模型各基本算术任务上的表现均出现了相应的下降。对于最为困难的整数相乘任务,其性能下降最为明显。

2418b6d6020ce29b20baebb7b5a699ad.png

总而言之,模型的量化压缩会明显损害大语言模型在数学推理问题上的性能,为了解决复杂的数学推理问题,足够的精度是必不可少的。这也说明,在实际部署大语言模型的过程中,不能够一味追求量化带来的效率,也要考虑到应用场景,采用合适的部署策略,同时兼顾大语言模型的实际性能和运行效率。

更多阅读

acd8cf3dd58b06692a44fb76dbbf64fb.png

31a5d85b00aa4ce878349057bb900039.png

157c6a077622b6563198c65de3ada901.png

317f63b19f40da92f935462f2bf44f34.gif

#投 稿 通 道#

 让你的文字被更多人看到 

如何才能让更多的优质内容以更短路径到达读者群体,缩短读者寻找优质内容的成本呢?答案就是:你不认识的人。

总有一些你不认识的人,知道你想知道的东西。PaperWeekly 或许可以成为一座桥梁,促使不同背景、不同方向的学者和学术灵感相互碰撞,迸发出更多的可能性。 

PaperWeekly 鼓励高校实验室或个人,在我们的平台上分享各类优质内容,可以是最新论文解读,也可以是学术热点剖析科研心得竞赛经验讲解等。我们的目的只有一个,让知识真正流动起来。

📝 稿件基本要求:

• 文章确系个人原创作品,未曾在公开渠道发表,如为其他平台已发表或待发表的文章,请明确标注 

• 稿件建议以 markdown 格式撰写,文中配图以附件形式发送,要求图片清晰,无版权问题

• PaperWeekly 尊重原作者署名权,并将为每篇被采纳的原创首发稿件,提供业内具有竞争力稿酬,具体依据文章阅读量和文章质量阶梯制结算

📬 投稿通道:

• 投稿邮箱:hr@paperweekly.site 

• 来稿请备注即时联系方式(微信),以便我们在稿件选用的第一时间联系作者

• 您也可以直接添加小编微信(pwbot02)快速投稿,备注:姓名-投稿

fa808a9cfc10a3a13233df12dd3135b9.png

△长按添加PaperWeekly小编

🔍

现在,在「知乎」也能找到我们了

进入知乎首页搜索「PaperWeekly」

点击「关注」订阅我们的专栏吧

·

·

·

4cedcc89a2349e312d8851d70a6c535e.jpeg

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值