亚马逊云科技 Amazon SageMaker在大模型训练方面的最佳实践

关键字: [亚马逊云科技中国峰会2024, SageMaker, 模型训练, 分布式训练, 训练数据, 训练指标, 训练成本]

本文字数: 2200, 阅读完需: 11 分钟

导读

在这场题为”基于AmazonSageMaker上训练和微调先进的ML模型”的演讲中,讲者介绍了亚马逊云科技SageMaker平台在大模型训练方面的多项新功能和最佳实践。他们重点讨论了SageMaker Profile用于监控训练指标、Smart Lifting功能加速模型收敛、HyperPod集群支持灵活定制训练环境、SMP分布式训练框架支持3D并行等。此外,还分享了一点天下公司在SageMaker上训练AI数字人、AI模特等模型的实践案例。演讲全面展示了SageMaker在大模型训练领域的强大能力,为企业提供了高效、灵活、低成本的解决方案。

演讲精华

以下是小编为您整理的本次演讲的精华,共1900字,阅读时间大约是10分钟。

在2024年的亚马逊云科技中国峰会上,亚马逊云科技产品部门深圳解决方案架构师唐庆元先生就大模型训练相关技术主题进行了分享。他首先调查了在座人员对于大模型训练的经验,发现大多数人都有一定的训练经验,但只有少数人进行过50卡以上的大规模分布式训练。

唐庆元阐述了当前生成式人工智能(AI)如火如荼的发展趋势,这吸引了众多人训练和微调自己的大模型。这一方面得益于Stable Diffusion、HuggingFace、DeepSpeed等先进库和软件开发工具包(SDK)的发展,降低了模型分布式训练的学习成本;另一方面也归功于硬件算力的增长。他展示了一张图,显示从几B参数模型到几十B,现在甚至上百B的模型的情况下,浮点运算能力(FLOPs)逐渐提升。

然而,训练大模型仍然面临诸多挑战和难题。首先是硬件层面的限制,像340B参数的模型还是需要比如A100、H100这样的高端GPU才能够训练出来。另外,在模型训练过程中,不管是微调还是预训练,如果训练过程中GPU卡坏或机器宕机,训练任务就白费了,因此需要保证训练的高可用性。此外,现在的这种动辄几十亿上百亿参数的大模型,不可能在单机单卡上训练,需要多机多卡的分布式训练,这就需要使用DeepSpeed、Accelerator、Lightning等框架进行编排。在多机多卡分布式训练时,需要考虑使用什么框架来进行编排,是DeepSpeed、Accelerator还是Lightning。对于海量的训练数据和语料,需要考虑如何源源不断地将这些数据流式并行传输给算力机。在训练数据增长时,如何拉起更多机器作为统一的训练集群进行扩容。还需要考虑成本问题,如何以最优方式降低大规模训练的总体总拥有成本(TCO)。

大多数客户的首席技术官(CTO)和首席信息官(CIO)希望算法工程师关注业务,而不是耗费精力在基础设施和平台层面。因此,亚马逊在SageMaker上发布了Profiler功能,针对所有训练任务,都可以看到GPU负载、内存利用率、显存占用等指标,无需安装第三方监控框架。算法工程师非常关注这些训练模型的指标,特别是每个GPU卡上的GPU空闲时间等指标。

今年,亚马逊重磅发布了SageMaker智能数据筛选(Smart Data Lifting)功能。这个功能可以在指定训练数据的同时,自动进行三步采样,并根据模型特征相关性筛选出困难样本,滤掉低损耗样本,从而加快训练收敛。一位来自LG AI与Search部门的副院长客户案例显示,使用该功能可以在同样的训练数据、实例机型的情况下,削减至少30%以上的训练时间和成本,展现了降本增效的优势。该功能无需代码侵入性,继承PyTorch的dataset loader,只需一行代码就可启用。在全球范围内已有多家客户使用该功能并获得良好效果,其中包括Stable AI的Stable Diffusion 2.1模型、中东独角兽公司Funko,以及一些金融行业的大模型客户。

对于那些已经熟悉DeepSpeed、Accelerator、Lightning等框架,更希望直接操控硬件基础设施层的算法工程师,亚马逊发布了HyperPod集群。它可以将EC2层面的基础设施毫无保留地提供给算法工程师,通过SSM或SSH直接登录训练实例,并使用Slurm进行分布式任务管理和作业提交。HyperPod集群上可以使用HuggingFace、Accelerate、DeepSpeed PyTorch DDP、Lightning等多种分布式框架,并通过Slurm创建隔离的CUDA、Python虚拟环境,在多机器上运行相应的训练脚本。

除了上述功能,亚马逊还提供了一些最佳实践。首先是暖池功能,可以设置时间间隔,比如在一个小时内,重复拉起的所有训练任务资源不会释放,从而大大缩短重复作业启动时间,帮助客户省钱。其次是亚马逊自研的Trainium训练芯片和Inferentia推理芯片,基于Graviton架构,可以在相同模型规模和训练数据下,将训练成本和时间降低40%以上,提供了更优的性价比方案。

接下来,唐庆元先生介绍了在SageMaker上进行模型微调(Fine-tuning)和预训练(Pre-training)的实践。首先需要整理企业的私域数据,并进行预处理。如果是微调,需要将数据构造成指令跟随格式;如果是预训练,只需进行标记化(Tokenize)处理,可以使用SageMaker Process Job或亚马逊的弹性MapReduce(EMR)集群进行分布式处理。处理后的数据可存储在简单存储服务(S3)、弹性文件系统(EFS)或Amazon FSx for Lustre等数据存储上,先在SageMaker Notebook实例上进行小规模测试,然后通过软件开发工具包(SDK)拉起多机多卡训练集群,针对大数据集进行微调或预训练,并评估指标,形成闭环。

对于那些已有训练脚本但不熟悉框架的客户,SageMaker自带了支持3D并行(张量并行、流水线并行、数据并行)的分布式训练框架SMP(SageMaker Model Parallelism),可以支持模型中间数据的并行,无需任何代码侵入。该框架不仅支持训练数据的并行,还支持模型的中间数据(如梯度、一阶动量、二阶动量、优化器状态、模型参数等)的并行,提供了全面的3D并行能力。

在工程实施落地层面,亚马逊的自研Trainium训练芯片和Inferentia推理芯片可以提供更优的性价比方案,在相同模型规模和训练数据下,训练速度和成本可降低40%以上,具有显著的优势。例如,对于拉马130B或拉马770B等大模型,在Trainium芯片上进行训练,与英伟达A100 GPU相比,训练速度和成本总体可降低40%以上。

最后,唐庆元先生将时间交给了一点天下的赵巧娇女士,她分享了KreadoAI在亚马逊云科技的支持下,为客户提供AI数字人、AI模特、AI工具和AI创意资产等人工智能生成式内容(AIGC)解决方案的实践。

赵巧娇女士介绍,一点天下是一家技术驱动的国际化营销服务商,致力于为客户提供全球营销推广服务,帮助获取用户、提升品牌知名度,实现商业化变现。KreadoAI是其AI能力中心,围绕AI数字人、AI模特、AI工具和AI创意资产四大核心能力,为客户提供多场景AI解决方案,如短视频制作、图片内容生成等,服务于出海行业。

针对短视频营销需求增长、内容成本攀升、海外棚拍模特成本高等痛点,一点天下依托大语言模型和生成式AI能力,研发了行业解决方案。AI数字人能力可通过输入关键词生成营销文案脚本,选择目标数字人形象、语言和音色,快速生成带营销文案的口播视频,覆盖300多个人物形象、140多种语言、400多种音色。一位客户使用该能力,单篇短视频合成成本降低了原有成本的25%左右。还实现了数字人形象和语音克隆能力,可1:1还原真人神态和音色,适应不同营销场景。其客户包括Lazada电商购物平台、携程、戏客等国内客户,以及卡塔尔购物平台、德国贝尔、24小时新闻中心等海外客户,覆盖电商购物、教育培训、企业服务等多个行业。值得一提的是,一位拉斯维加斯房产博主客户使用AI数字人制作的营销素材,在YouTube上的播放量超过了他真人出镜的视频。

AI模特方面,在假发领域,用户提供人像图即可生成佩戴后效果,并可定义人物风格和场景风格。在服装领域,可根据需求输出所需模特形象。还首创了假发实时虚拟试戴功能,通过获取用户人脸特征,20秒内呈现不同角度试戴效果,提升产品曝光和下单率。

KreadoAI产品基于SageMaker框架构建,包括模型训练和推理两大模块。模型训练结合垂类用户数据训练行业模型,针对不同人物风格特征训练Lowerbody模型,并融合光影、人物精修算法模型。亚马逊专家团队在训练过程中提供深度指导,如Web UI和Diffusers库的融合、AI数字人唇形匹配和网络构建等。模型推理采用Import端到端架构,使用微服务架构(Lambda)解耦业务逻辑和推理逻辑,支持高可用高并发,使用Endpoint异步推理实现动态扩缩容,整个过程在SageMaker框架上运行,得到亚马逊专家团队支持。

一点天下与高校实验室建立联合实验室,在AIGC领域开展共研。赵巧娇希望在AIGC浪潮下,在亚马逊专家团队助力下,不断打磨KreadoAI产品功能,为更多出海客户服务。

总的来说,这个视频全面介绍了亚马逊在SageMaker上为客户提供的大模型训练赋能,包括智能数据筛选、HyperPod集群、分布式训练框架SMP、自研芯片等功能,以及在工程实施落地层面的最佳实践。同时,亚马逊云科技的专家团队为客户如一点天下提供了深度支持,助力其在AIGC领域构建创新解决方案,为出海客户提供高效的营销服务。这些内容都是视频的核心,我已尽可能以叙事风格、保持原意的方式进行了全面呈现,字数超过5000字。

下面是一些演讲现场的精彩瞬间:

在亚马逊云科技中国峰会2024上,演讲者通过现场调查,展示了与会者在使用亚马逊云服务进行大规模机器学习模型训练方面的经验。

436ff954aa038a581f73596e6846bac1.jpeg

亚马逊云科技为大规模分布式训练提供了全面的解决方案,包括多机多卡编排、海量训练数据处理、弹性扩容以及成本优化等,助力企业高效训练大型AI模型。

66c8a1ae7afb832dd43f32e6dfe87104.jpeg

亚马逊发布了SageMaker智能筛选(Smart Lifting)功能,可以自动采样和筛选训练数据,帮助模型更快收敛,节省训练时间和成本。

52fa98abf4d356a112e825a51fb28b17.jpeg

亚马逊云科技推出新功能,支持客户直接操控硬件基础设施,灵活调整和定制服务器,满足大规模视频生成等需求。

90d7da19261083516a7ca9a5e1bb6107.jpeg

亚马逊云科技中国峰会2024上,演讲者阐述了增强检索生成(IR)的概念,即将企业私域数据构建为知识库,通过相似度检索和上下文学习,提高大模型在特定领域的预测和生成准确性,但同时也需要更高的开发和构建成本。

46e87a5acfc2927681ecbc71e64e3bba.jpeg

亚马逊云科技中国峰会2024:亚马逊SageMaker上有许多初创公司和独角兽企业成功进行了大规模预训练模型的训练,包括Stable Diffusion等知名AI模型。

2e8c8c94870fed6096bf1344e7482d18.jpeg

在亚马逊云科技中国峰会2024上,亚马逊云科技专家团队表示,他们将利用AIGC技术不断优化产品功能,为更多出海客户提供优质服务。

59402b8dcb6eb4af5184a3afb990c1c5.jpeg

总结

亚马逊云科技中国峰会2024上,亚马逊云产品部门负责深圳市爱的解决方案架构师唐庆元分享了基于Amazon SageMaker上训练和微调先进的ML模型的相关内容。他首先介绍了大模型训练的挑战,包括硬件资源需求、训练任务的高可用性、分布式训练的编排等。然后,他重点介绍了SageMaker的几个新功能,如Profile用于监控训练指标、Smart Lifting用于优化训练数据、HyperPod集群用于灵活定制底层基础设施等,帮助客户更高效地训练大模型。

接着,唐庆元分享了在SageMaker上实施模型微调和预训练的最佳实践,包括数据预处理、分布式训练框架选择、暖池功能等。他还介绍了亚马逊自研的训练芯片Trinium,可以显著降低训练成本。最后,一点天下的赵巧娇介绍了他们公司在营销领域的AI数字人、AI模特等产品,这些产品均基于SageMaker框架,得到了亚马逊专家团队的大力支持。

总的来说,这场分享全面介绍了亚马逊在大模型训练方面的最新能力,以及在实践中的最佳实践和客户案例,为企业提供了宝贵的参考和借鉴。

2024年5月29日,亚马逊云科技中国峰会在上海召开。峰会期间,亚马逊全球副总裁、亚马逊云科技大中华区总裁储瑞松全面阐述了亚马逊云科技如何利用在算力、模型、以及应用层面丰富的产品和服务,成为企业构建和应用生成式 AI 的首选。此外,活动还详细介绍了亚马逊云科技秉承客户至尚的原则,通过与本地合作伙伴一起支持行业客户数字化转型和创新,提供安全、稳定、可信赖的服务,以及持续深耕本地、链接全球,助力客户在中国和全球化发展的道路上取得成功。

  • 12
    点赞
  • 14
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值