前端高薪岗位之大模型端上部署及训练

自2022年ChatGPT发布以来,以大模型为依托的AIGC相关的应用产品,比如ChatGPT、Midjourney、Stable Diffusion等,在社交网站的讨论热度持续攀升,引发了较大范围的好奇与关注。

目前,国内外各个科技大厂在大模型的端侧部署领域均开始布局,比如在2023年8月14日的雷军年度演讲中,雷军宣布小米已经在手机端跑通13亿参数的大模型,部分场景效果媲美云端。

什么是大模型

2017年,Google 发表一篇划时代的论文《Attention is all you need》,这是一个标志性的事件。

基于 Transformer, 2018年OpenAI推出1.1亿参数的GPT,此后谷歌、微软、Facebook等前后相继推出自己的预训练模型。

特别是2020年OpenAI推出了1750亿参数的GPT-3,轰动全球,引发了各大顶尖科研机构在大模型研究的竞赛,大模型的参数规模逐渐增加。

LLM 的基础是 Transformer 块,Transformer是一种基于自注意力机制(self-attention)的神经网络结构,被广泛应用于自然语言处理任务中,它包括编码器和解码器两个主要结构。

目前,绝大多数的大语言模型均基于这种结构搭建而成,按照结构划分可以分为仅编码器模型、仅解码器模型和编码器解码器模型。

  • 仅编码器模型(Encoder-only models): 常见于需要理解输入的任务,如句子分类和命名实体识别。
  • 仅解码器模型(Decoder-only models): 常见于生成任务,如文本生成。
  • 编码器解码器模型(Encoder-decoder models): 常见于根据输入进行生成的任务,如翻译或摘要。

近一两年,微软、谷歌、Meta、百度、阿里、腾讯等国内外研究机构就大模型领域不断进行着技术创新和新型商业模式的竞争,大量的模型持续被设计、生产并发布。

截屏2024-01-19 14.12.07.png

其中基于Transformer的模型显示为非灰色颜色:蓝色分支表示仅解码器模型,粉色分支表示仅编码器模型,绿色分支表示编码器解码器模型。

可以发现大模型逐步向编码器解码器和仅解码器架构发展,模型的参数尺寸持续增加,训练数据持续增加,使得模型能力大幅提高的同时也使得模型对于算力的需求呈指数级增长。

目前业界大模型的研究主要有两个方向:

  • 一是起步较早的自主研发闭源的商用模型,典型代表是OpenAI的GPT系列,Google的Bard、PaLM2等。
  • 另外一个就是开源界热火朝天的景象,其中10B以下的模型,经过量化压缩及优化之后基本上都能在端侧设备上部署运行。

大模型技术的基础

模型部署是帮助训练好的模型从“工厂”走入实际应用的关键步骤,部署大模型和普通模型的关键区别主要在于计算能力、存储空间、能耗等方面,由于模型本身的尺寸大、推理时需要的内存大、对算力的需求大。

因此对相关的硬件选择、模型压缩技术、算法优化技术和 SDK 开发都有着更高的要求,需要根据具体的应用场景和需求进行选择和优化。

LLM 参数量巨大,一般都在10亿(1B)以上,按照浮点数权重来计算的话,模型文件大小在 4GB以上,光是加载到内存就要占用 4GB 以上的空间,如果是在32位操作系统(严格来讲是地址位宽为32),系统的寻址空间就只有 4GB,整个内存空间全用上都装不下!

幸好现在已经是64位机的时代,大家手上用的智能手机不出意外的话基本上都是64位操作系统,理论上内存空间可以大到 64GB 任何大模型都可以装下,当然受限于硬件成本及硬盘容量的限制,64位寻址能够支持的最大内存只有几百TB。

目前主流智能手机的内存大小一般是 6GB ~ 12GB 左右,Windows系统的设备有 128GB、2TB、6TB 内存的机器,也就是说目前在我们最常用的手机和个人电脑(PC)上,已经具备加载和运行大模型的硬件条件。

对于移动端部署,硬件的选择需要考虑计算能力、功耗、存储空间、可靠性、兼容性、成本价格等多方面的因素。

模型部署区别于其他端上模型的最大之处在于大模型极高的参数量和随之而来的对计算、访存、存储的高需求。不同于训练阶段,推理时的内存占用通常由模型的权重kv缓存和一些其他中间结果共同构成,其中中间结果用完会尽快释放掉,占用的显存很小,可以忽略。

在大模型部署场景中,访存带宽通常为计算速度的主要限制,访存耗时甚至高达计算耗时的四百多倍。在端上运行时,batchsize通常为1,此时可以压缩模型参数存储精度的字节数,进而压缩访存时间。

模型量化技术是一种通过减少神经网络中参数的位数,从而减小模型的存储空间和计算量,提高模型的运行效率的技术,在移动端和嵌入式设备上的应用非常广泛。

常见的模型精度有FP32、FP16、INT8和INT4等,随着模型存储空间和计算量的减少,模型的精度也在下降。

Float32 (FP32) 是标准的 IEEE 32 位浮点表示。使用该数据类型,可以表示大范围的浮点数。在 FP32 中,为指数保留了 8 位,为尾数保留了 23 位,为符号保留了 1 位。

而在 Float16 (FP16) 数据类型中,指数保留 5 位,尾数保留 10 位。这使得 FP16 数字的数值范围远低于 FP32。在推理时,半精度权重通常能提供与 FP32 相似的精度,此时只需要一半的内存就能获得近似的推理结果。

同理,如果进行INT8量化,则模型大小会再次减半,如果进行INT4量化,则模型大小可以在理论上降至1/8。

在端上运行大语言模型通常采用Groupwise的INT4量化策略,Groupwise指的是将需要量化的数据分成n组,为每一组建立量化参数,当n越大,精度越高。

由于大模型运行的主要限制在访存上,反量化所额外需要的计算并不会超过访存的开销,因此整体而言此举可以大幅降低耗时。

相关进展

在终端设备上部署大模型,比如常见的Android、iOS手机、嵌入式设备、个人电脑等,我们需要解决两方面的问题:内存占用和计算速度。

内存占用决定了该设备是否能装载下模型,计算速度决定了用户体验。此外针对推理引擎的图优化、计算调度优化、资源管理优化等关键技术从多角度优化模型执行过程的计算速度。

在让大模型变小这条路上,人们做了很多尝试,先是 Meta 开源了 LLaMA,让学界和小公司可以训练自己的模型。

随后,斯坦福研究者启动了 Lamini,为每个开发者提供了从 GPT-3 到 ChatGPT 的快速调优方案。而 MLC LLM 的项目可谓一步登天,因为它能让你「在任何设备上编译运行大语言模型。

MLC LLM 为我们在各类硬件上原生部署任意大型语言模型提供了解决方案,可将大模型应用于移动端(例如 iPhone)、消费级电脑端(例如 Mac)和 Web 浏览器。

23年第二季度,陈天奇团队发布Web Stable Diffusion和WebLLM,只需一个浏览器,就能跑通大模型了。不过需要下载Chrome Canary,也就是谷歌浏览器的金丝雀版本,才可以正常运行。

启动浏览器之后,便打开官网的demo试玩处开始体验了,不过在第一次展开对话的时候,系统还会出现一个初始化的过程。

根据团队介绍,其核心关键技术是机器学习编译(Machine Learning Compilation,MLC)。整体方案是站在开源生态系统这个“巨人肩膀”上完成的,包括Hugging Face、来自LLaMA和Vicuna的模型变体,以及wasm和WebGPU等,并且主要流程是建立在Apache TVM Unity之上。

团队首先在TVM中bake了一个语言模型的IRModule,以此来减少了计算量和内存使用。TVM的IRModule中的每个函数都可以被进一步转换并生成可运行的代码,这些代码可以被普遍部署在任何最小TVM运行时支持的环境中(JavaScript就是其中之一)。

其次,TensorIR是生成优化程序的关键技术,通过结合专家知识和自动调度程序快速转换TensorIR程序,来提供高效的解决方案。

除此之外,团队还用到了如下一些技术:

  • 启发式算法:用于优化轻量级运算符以减轻工程压力。
  • int4量化技术:用来来压缩模型权重。
  • 构建静态内存规划优化:来跨多层重用内存。
  • 使用Emscripten和TypeScript :构建一个在TVM web运行时可以部署生成的模块。

但Web LLM团队也表示,这个项目还有一定的优化空间,例如AI框架如何摆脱对优化计算库的依赖,以及如何规划内存使用并更好地压缩权重等。

Web LLM背后的团队是MLC.AI社区,它成立于 2022 年 6 月,并由 Apache TVM 主要发明者、机器学习领域著名的青年学者陈天奇,带领团队上线了 MLC 线上课程,系统介绍了机器学习编译的关键元素以及核心概念。

总结

综合来看,目前端上进行大模型推理的基本技术已经具备,但内存需求普遍不小于4GB,仍对设备的性能和优化能力有着较高的要求,内存容量、访存速度和计算能力共同制约了大模型在端上的整体表现。

通过对现有技术的分析和实践,我们能够直观地感受到当前端上大模型的技术壁垒和现实进展,针对这些制约因素,我们正在不断探索和优化技术方案,以提高设备的性能和优化能力,进一步减小模型尺寸,降低内存容量和访存速度的要求。

端上大模型的可行性和前景已经得到了业内的普遍认可,目前大量工程已在PC端、手机端实现大模型的离线部署,更有部分App登陆应用商店,只需下载即可畅通无阻地对话。

我们相信,在不久的将来,端上大模型推理将会成为智能应用的重要组成部分,为用户带来更加便捷、智能的体验。

如何学习AI大模型?

我在一线互联网企业工作十余年里,指导过不少同行后辈。帮助很多人得到了学习和成长。

我意识到有很多经验和知识值得分享给大家,也可以通过我们的能力和经验解答大家在人工智能学习中的很多困惑,所以在工作繁忙的情况下还是坚持各种整理和分享。但苦于知识传播途径有限,很多互联网行业朋友无法获得正确的资料得到学习提升,故此将并将重要的AI大模型资料包括AI大模型入门学习思维导图、精品AI大模型学习书籍手册、视频教程、实战学习等录播视频免费分享出来。

在这里插入图片描述

第一阶段: 从大模型系统设计入手,讲解大模型的主要方法;

第二阶段: 在通过大模型提示词工程从Prompts角度入手更好发挥模型的作用;

第三阶段: 大模型平台应用开发借助阿里云PAI平台构建电商领域虚拟试衣系统;

第四阶段: 大模型知识库应用开发以LangChain框架为例,构建物流行业咨询智能问答系统;

第五阶段: 大模型微调开发借助以大健康、新零售、新媒体领域构建适合当前领域大模型;

第六阶段: 以SD多模态大模型为主,搭建了文生图小程序案例;

第七阶段: 以大模型平台应用与开发为主,通过星火大模型,文心大模型等成熟大模型构建大模型行业应用。

在这里插入图片描述

👉学会后的收获:👈
• 基于大模型全栈工程实现(前端、后端、产品经理、设计、数据分析等),通过这门课可获得不同能力;

• 能够利用大模型解决相关实际项目需求: 大数据时代,越来越多的企业和机构需要处理海量数据,利用大模型技术可以更好地处理这些数据,提高数据分析和决策的准确性。因此,掌握大模型应用开发技能,可以让程序员更好地应对实际项目需求;

• 基于大模型和企业数据AI应用开发,实现大模型理论、掌握GPU算力、硬件、LangChain开发框架和项目实战技能, 学会Fine-tuning垂直训练大模型(数据准备、数据蒸馏、大模型部署)一站式掌握;

• 能够完成时下热门大模型垂直领域模型训练能力,提高程序员的编码能力: 大模型应用开发需要掌握机器学习算法、深度学习框架等技术,这些技术的掌握可以提高程序员的编码能力和分析能力,让程序员更加熟练地编写高质量的代码。

在这里插入图片描述

1.AI大模型学习路线图
2.100套AI大模型商业化落地方案
3.100集大模型视频教程
4.200本大模型PDF书籍
5.LLM面试题合集
6.AI产品经理资源合集

👉获取方式:
😝有需要的小伙伴,可以保存图片到wx扫描二v码免费领取【保证100%免费】🆓

  • 25
    点赞
  • 17
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值