Llama 3.1 70B AQLM-PV版发布!大模型压缩后可在24GB显存GPU上本地运行!!

Llama 3.1 70 B参数模型无疑是一个非常优秀的模型。不仅是基准测试证明了这一点,现实世界中的应用也毫无疑问地证明了它的表现与封闭源的知名模型相媲美,比如 OpenAI 的 GPT-4、Anthropic 的 Claude 和 Google 的 Gemini Pro。

这也是为什么我看到有许多组织努力将这个 70B参数的模型移植到普通 GPU 上,特别是那些显存为 24GB 或以下的设备。在这篇文章中,我将向大家展示一个全新的微调模型,叫做 Meta Llama 3.1 70B Instruct,使用了 AQLM。

如果你还不知道 Meta 的 Llama 3.1 是什么:它是一个多语言的大语言模型的集合,预训练和指令调优的生成模型,尺寸分别为 80 B、70B和 405B参数。

Llama 3.1 指令调优的文本模型针对多语言对话用例进行了优化,在很多通用的行业基准上,已经超越了很多现有的开源和封闭的聊天模型。在这篇文章中,我将向大家展示这个模型是如何 通过使用 AQLM 技术和 PV 调优进行压缩的。我们还将学习什么是 AQLM 和 PV,然后我们将本地安装它,并体验一下这个模型。

现在在安装之前,有 两个术语,或者我说三个术语,是你必须要清楚了解的。

首先,什么是量化?

因为这个模型 Llama 3.1 70 BInstruct AQLM 是对原始70B模型的 AQLM 量化。当我们说量化时,指的是一种用于减少大语言模型内存和计算需求的技术。它涉及到使用更少的位数来表示模型的权重和激活,通常每个参数使用 1 到 2 位,而不是标准的 32 位浮点数。

这种压缩会降低模型的精度,但可以加快执行速度并减少存储需求,使得在较小设备或显存较少的 GPU 上运行复杂模型成为可能。

AQLM 代表大语言模型的加法量化。它是一种专门设计用于将大语言模型压缩到极小尺寸的新量化技术,每个参数使用 2 到 3 位。它使用加法量化技术将权重矩阵分解为更小的部分,并在模型的不同部分优化压缩。

AQLM 在保持模型精度的同时,极大地减少了内存需求,使得在资源有限的设备上部署大语言模型成为可能。

另一个我们需要学习的术语是 PV,PV 代表 PV 调优。

PV 调优是一种改进压缩大语言模型性能的微调框架。它设计用于与像 AQLM 这样的量化技术协作,以优化压缩模型的权重,提高其准确性。PV 调优可以推广并改进现有的微调策略,提供收敛保证,并在 Llama 和 Mistral 等高性能模型上超越之前的方法。

通过使用 PV 调优,开发人员可以在不牺牲模型精度的情况下实现更好的压缩比,使得在较小设备上高效部署大语言模型成为可能。

所以现在我希望大家 对量化、AQLM 和 PV 调优有了理解。

接下来我们打开我的终端,我运行的是 Ubuntu 22.04 和 NVIDIA RTX A6000 GPU,显存是 48GB,不过你可以在 24GB 显存的 GPU 上运行这个模型。

首先创建一个虚拟环境,

安装所有的前置需求,安装 AQLM 在GPU上、 Torch、Transformer 等其他库。

所有前置需求都已安装完成。接下来,启动我们的 Jupyter Notebook,以便在浏览器环境中进行安装。

Jupyter Notebook 已启动。接下来导入我们已安装的库,然后下载模型。模型开始下载了,我想模型的大小大约是 24GB,所以我们等待下载完成。这会花一些时间。

模型和分词器都下载完毕,现在我们可以进行推理了。

第一个问题,我问它世界上最小的国家是什么?让我们运行一下。等待结果。

结果很准确,世界上最小的国家是梵蒂冈城,这是一个独立国家。所以答案是正确的。接下来我们再测试一个。

这次我让它写 10 个以 “美丽” 结尾的句子。这次我测试的重点是,看看我们把 70 亿模型压缩到 2 位,大小只有 24GB,现在看看是否有精度损失。

你可以看到,大部分答案是非常准确的,它甚至还生成了一个答案,每个句子都以 “美丽” 结尾,真的很棒,太酷了。

接下来我们再试一个。接下来我问它一个问题,“草莓里有多少个 r ?”

这次它没答对。70 B完整模型曾经能回答这个问题,但这个压缩版本失败了。8B的 Llama 3.1 也给出了错误答案,但 405B的版本是正确的。好吧,至少我们发现一个问题在完整模型中是正确的。好,让我们再试一个。

接下来我问了一个负面问题,“如何让对话变得尴尬?” 看看模型是否会回答我。

嗯,这次模型花了点时间。

它说我必须声明让对话变得尴尬并不是一个值得追求的目标,然后它给了我一些建议,比如过于个人化、做假设、用错场合的幽默、尴尬的沉默、提出有争议的话题等等。 这花了大约 29 秒。好吧,这很有趣,因为这是一个相对比较难的问题,或者说是一个不寻常的问题,所以它花了一些时间。

好,让我们试一个编码问题。所以我让它绘制 Mandelbrot 集合,这是一个几何构造。

等待一下,结果出来了,几何图形的代码很好,非常高质量。

它还给出了代码的概要,甚至告诉我们如何安装以便运行这个代码。不过花了点时间,超过了 25 秒。不过总的来说表现还是很不错的。

我认为这真的是一个很大的进步,现在我们可以在 24GB 显存以上的单个 GPU 上运行 70B的模型,而且准确率非常好。

希望在未来不久我们也可以在这样的普通硬件上运行 4050 亿的 Llama 3.1 模型,甚至是显存为 24GB 或更少的单个 GPU 上。


如何学习大模型?

学习AI大模型是一个系统的过程,需要从基础开始,逐步深入到更高级的技术。

这里给大家精心整理了一份全面的AI大模型学习资源,包括:AI大模型全套学习路线图(从入门到实战)、精品AI大模型学习书籍手册、视频教程、实战学习、面试题等,资料免费分享!

1. 成长路线图&学习规划

要学习一门新的技术,作为新手一定要先学习成长路线图方向不对,努力白费

这里,我们为新手和想要进一步提升的专业人士准备了一份详细的学习成长路线图和规划。可以说是最科学最系统的学习成长路线。
在这里插入图片描述

2. 大模型经典PDF书籍

书籍和学习文档资料是学习大模型过程中必不可少的,我们精选了一系列深入探讨大模型技术的书籍和学习文档,它们由领域内的顶尖专家撰写,内容全面、深入、详尽,为你学习大模型提供坚实的理论基础(书籍含电子版PDF)

在这里插入图片描述

3. 大模型视频教程

对于很多自学或者没有基础的同学来说,书籍这些纯文字类的学习教材会觉得比较晦涩难以理解,因此,我们提供了丰富的大模型视频教程,以动态、形象的方式展示技术概念,帮助你更快、更轻松地掌握核心知识

在这里插入图片描述

4. 大模型项目实战

学以致用 ,当你的理论知识积累到一定程度,就需要通过项目实战,在实际操作中检验和巩固你所学到的知识,同时为你找工作和职业发展打下坚实的基础。

在这里插入图片描述

5. 大模型面试题

面试不仅是技术的较量,更需要充分的准备。

在你已经掌握了大模型技术之后,就需要开始准备面试,我们将提供精心整理的大模型面试题库,涵盖当前面试中可能遇到的各种技术问题,让你在面试中游刃有余。

在这里插入图片描述

全套的AI大模型学习资源已经整理打包,有需要的小伙伴可以微信扫描下方CSDN官方认证二维码,免费领取【保证100%免费

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值