话说,大模型火爆两年来
第一批被“气死”的人
都已经“头七”了
……
有人说,不至于吧
俺看各家发的大模型都挺厉害的
个个天赋异禀,牛掰三连
您说的没错,在很多通用场景
尤其C端娱乐、陪伴、效率提升等应用
大模型们这两年干了不少“人事儿”
可一旦到B端严肃场景,就不一样了
比如,有人把大模型接入ERP、BI系统
搞点严谨的数据分析、成本核算
分分钟给你整成一团乱麻
让你不得不从头核对,比自己算还累
还有人拿大模型做了招标助手
指望它能读标书、写标书
结果,看错了标底、写错了应答
本来能中的标都废了…
……
凡此种种“气死人”的案例
皆因通用大模型对行业场景“水土不服”
动不动就出现幻觉、现了原形
嘿嘿
这么说吧,就目前通用大模型的能力
任何企业都很难拿来直接就用
真气死个人儿,可怎么办呢?
让大模型在企业级严肃场景、垂直场景能够快速落地、把活干好,最有效的方法就是对大模型进行精调(Fine-tuning)。
所谓「精调」,就是把这些看起来有点“气人”的通用大模型,使用特定任务、特定场景的数据,进行再训练或者微调。
说白了,一方水土养一方大模型,把通用大模型拉回家,喂点我家的专用饲料,搞搞特训,让他们按我们要求的样子“二次发育”。
特训完成后,这些大模型就成了我们的专属大模型,在我们需要的特定业务场景下,也能聪明滴搬砖。
精调省去了从零开始的时间成本、训练成本,表面上看,对企业好像很简单。
但实际上,每一步都有坑…
01
大模型「精调」,有哪些难点?
首先,已有的预训练模型怎么选?
理论上讲参数越大模型越聪明,可是参数大意味着精调的训练成本会增加,而未来推理部署的成本也会更高。
第二,一份高质量的训练数据对精调模型达标起着至关重要的作用,但是,高质量的数据来之不易,要经历繁琐的数据清洗和耗时的数据标注。
数据不行,越调越糊…
第三,虽然精调消耗的算力跟预训练不是一个数量级的,但对企业来说,也是一笔不小的开支。
算力囤少了,精调不够劲儿,算力囤多了,后期就是巨大的沉默成本。
第四,精调完成,还要把模型部署落地到生产场景,与企业业务对接集成,提供推理服务。
这个环节,同样要考虑部署集成的可操作性,易用性,以及长期运营成本。
一旦搞不好,就可能成为烂尾工程,前面的付出全打水漂。
怎么样,是不是左右都是难?
直接采用通用大模型,会被各种出乎意料的幻觉“气死”,选择精调后使用,也可能会被这一路的坑儿“气死”。
02
如何快速搞定大模型「精调」?
怎么破?有人给出了解法,这就是「腾讯云TI平台」。
TI平台是腾讯云面向开发者、政企提供的一站式人工智能开发服务平台。
既可以应用于传统AI/ML场景,也可以应用于生成式AI场景,客户不需要再去找单独的MaaS平台。
TI平台打通了从数据获取、数据处理、算法构建,到模型训练、模型评估、模型部署,再到AI应用开发和落地的全流程链路。
并且与鹅厂公有云基础设施(存/算/网/安能力)无缝衔接,开箱即用。
用TI平台来进行大模型精调,各种难题都可以迎刃而解↓
01
解决模型选择困难症
Model Selection
面对眼花缭乱的各种通用大模型,企业容易陷入到选择困难症。
TI平台预置了鹅厂自研的混元大模型和行业大模型,并优中选优,全面接入主流开源模型,同时提供通用训练框架和推理加速框架。
更贴心的是,鹅厂刚刚开源了一个“吊炸天”的混元模型:「混元Large」。
混元Large有3890亿总参数量、520亿激活参数量,并支持256K上下文长度,是目前业界参数规模最大、性能领先的开源MoE模型。
MoE模型也就是专家混合模型(Mixture of Experts),有点像“三个臭皮匠,抵过诸葛亮”。
它把多个擅长不同任务的子模型混合在一起,组成“专家团队”,以此来提供更强的能力。
MoE模型通过一种叫做门控网络的机制,根据输入数据的特点,来选择激活哪几个专家(子模型)。
由于MoE模型工作的时候通常只激活一小部分专家(比如100个激活2-3个),这可以在显著降低计算量的同时,不影响模型性能。
同时因为“群贤毕至、专家云集”,每个专家各有所长,MoE模型可以处理更加多样化、复杂的输入数据,得到更优的结果。
因此,混元Large在推理速度和参数规模之间取得了平衡,显著提升了模型的处理能力。
当然鹅厂还注入了一大堆黑科技,比如:高质量合成数据、随机补偿路由策略、KV缓存压缩、专家特定学习率缩放等等。
测试结果显示,混元Large在CMMLU、MMLU、CEval、AGIEval等多学科评测集以及中英文NLP任务、代码、数学等9大维度表现出色,超越Llama3和Mixtral等主流开源模型。
so,当企业既想更好的模型性能,又想要更低的算力开销,以前没得选,现在混元Large就是终极答案。
02
解决数据清洗和标注难题
Data Preparation
选完模型,下一步要准备精调数据,这个环节有两大难题↓
第一是数据来源和格式各异,不同数据来源和不同业务场景,应该采用不同的清洗手段,不同格式的数据,需要更灵活的存储方式。
第二是数据标注效率低下,精调数据通常保存在云存储、云文件系统中,传统标注方案往往涉及数据反复来回拷贝,占用额外空间且耗时耗力。
采用鹅厂TI平台,完全不用担心数据准备环节的难题。
首先,平台预置了一套数据清洗pipeline脚本,这可是腾讯优图算法专家沉淀多年的清洗大模型数据的经验,开箱即用。
同时腾讯云TI平台的大模型标注工具非常灵活,特色创立了基于schema(数据集的结构和格式)的定义方式,可以完全自定义工作台,让标注更方便。
由于腾讯云TI平台本身就是云原生的,可以无缝对接用户待标注数据的云文件系统,标注结果直接保存在原文件路径。
标注过程中,不再需要反复拷贝,省时省力省空间。
03
精调过程稳定高效易用
Easy Fine-tuning
数据准备好之后,就可以进入具体精调环节。
TI支持低代码、灵活自定义两种精调模式自由选择,并预置了训练镜像,快速发起训练,简单易用。
精调训练过程中,TI提供了三层保障机制,减少任务中断,提升精调效率。
同时,TI基于鹅厂自研的“Angel机器学习平台”加速机制,让训练和推理的速度更快,资源消耗更少。
还有一点也很重要,企业在使用TI实施精调训练时,调用的是鹅厂云端算力,按需使用,不要再自己抢卡囤算力,大大节省资金成本。
而且,TI平台也支持政企私有化部署,全面适配国产算力卡,单平台支持多卡异构纳管,让企业可以有多种选择。
04
模型效果评估与部署难题
Model Deploy
大模型精调以后,效果到底怎么样?会不会还是有点“犯浑”?这事儿不能等精调完再检查,要在过程中就把握好。
鹅厂TI平台提供了一套完善的模型评估体系,从精调的不同阶段定义了「轻量体验、客观评测、主观评测」等“考试环节”,并且支持在精调训练的任一checkpoint进行抽查。
好,“智商”检测合格,开始部署。
TI内置推理加速器,可达两倍以上加速比,让推理应用跑到飞起。
同时提供统一的大模型调用API和体验工具,大幅缩短业务接驳大模型的周期。
在应用发布环节,TI提供可视化应用编排,并可以纳管边缘集群,通过云端控制边缘服务发布,快速落地生产场景。
就这样,有了腾讯云TI平台,从模型选择、数据准备,到精调训练、调试评估,再到模型部署和应用,一路畅通。
聪明滴、懂行业、懂场景的大模型,终于有谱啦。
如何学习AI大模型?
我在一线互联网企业工作十余年里,指导过不少同行后辈。帮助很多人得到了学习和成长。
我意识到有很多经验和知识值得分享给大家,也可以通过我们的能力和经验解答大家在人工智能学习中的很多困惑,所以在工作繁忙的情况下还是坚持各种整理和分享。但苦于知识传播途径有限,很多互联网行业朋友无法获得正确的资料得到学习提升,故此将并将重要的AI大模型资料包括AI大模型入门学习思维导图、精品AI大模型学习书籍手册、视频教程、实战学习等录播视频免费分享出来。
第一阶段: 从大模型系统设计入手,讲解大模型的主要方法;
第二阶段: 在通过大模型提示词工程从Prompts角度入手更好发挥模型的作用;
第三阶段: 大模型平台应用开发借助阿里云PAI平台构建电商领域虚拟试衣系统;
第四阶段: 大模型知识库应用开发以LangChain框架为例,构建物流行业咨询智能问答系统;
第五阶段: 大模型微调开发借助以大健康、新零售、新媒体领域构建适合当前领域大模型;
第六阶段: 以SD多模态大模型为主,搭建了文生图小程序案例;
第七阶段: 以大模型平台应用与开发为主,通过星火大模型,文心大模型等成熟大模型构建大模型行业应用。
👉学会后的收获:👈
• 基于大模型全栈工程实现(前端、后端、产品经理、设计、数据分析等),通过这门课可获得不同能力;
• 能够利用大模型解决相关实际项目需求: 大数据时代,越来越多的企业和机构需要处理海量数据,利用大模型技术可以更好地处理这些数据,提高数据分析和决策的准确性。因此,掌握大模型应用开发技能,可以让程序员更好地应对实际项目需求;
• 基于大模型和企业数据AI应用开发,实现大模型理论、掌握GPU算力、硬件、LangChain开发框架和项目实战技能, 学会Fine-tuning垂直训练大模型(数据准备、数据蒸馏、大模型部署)一站式掌握;
• 能够完成时下热门大模型垂直领域模型训练能力,提高程序员的编码能力: 大模型应用开发需要掌握机器学习算法、深度学习框架等技术,这些技术的掌握可以提高程序员的编码能力和分析能力,让程序员更加熟练地编写高质量的代码。
1.AI大模型学习路线图
2.100套AI大模型商业化落地方案
3.100集大模型视频教程
4.200本大模型PDF书籍
5.LLM面试题合集
6.AI产品经理资源合集
👉获取方式:
😝有需要的小伙伴,可以保存图片到wx扫描二v码免费领取【保证100%免费】🆓