实战Llama-3-70B RLHF-PPO训练耗时及成本

我是小冬瓜AIGC,原创超长文知识分享

原创课程已帮助多名同学上岸LLM赛道

知乎/小红书 :小冬瓜AIGC

按照scaling law,越大的模型性能也越好

同时训练的难度也大幅提升

以下基于Llama-3-70B模型训练,对比SFT/PPO训练耗时

运算平台为A800(80G)x8 总体训练耗时<2天

041eeda88d4114b2932e60497d05bd12.png

上述为课程的实操结果可复现,更多课程内容详情如下:

一、课程概况

  • 课程内容:直播 + 往期录播 + 手撕级Notebook + 非调包源码 + 算法图解 + 课程PPT

  • 课程项目:垂域大模型实操 + DeepSpeed多卡SFT、RM、PPO、DPO训练

  • 进阶专题:手撕LLaMA、手撕RL、手撕RLHF PPO(Notebook)、LLM加速、LLM分布式训练

  • 入门要求:Pytorch+神经网络或深度学习基础

  • 授课形式:每周2章节直播,5周上完前10章节

  • 价格:私聊单独咨询

  • 实操效果:本课程代码仓库MA-RLHF,实战多卡训练; 已全线支持Llama-3-8B/70B SFT/DPO/PPO训练;支持低成本百元8B-DPO训练;

    二、课程目录

d286868596f7ff5d6347e7ed5e2256f2.jpeg

详细目录:第9/10章节-RL/RLHF

9077f1056e99dc6ddc269acdac58d497.png

第11章节-LLM加速(以长文档形式授课)

6c235ce65b90dc42208982de39af6f60.png

第12章节-LLM分布式训练(以长文档形式授课)

02bf0b24753a9b5c86832c324111608f.png

三、课程内容详情

3.1 课程直播+录播

  • 已成功开展 8 期【手撕LLM+RLHF】课程,目前10期可约

  • 在线直播授课、随讲随答,即刻解疑瞬间秒懂, 直播课程会进行录制,便于课后随时学习。

c4fdf630603815bfd18704960b0cd8be.png

3.2 课件PPT

  • 每章均有完整PPT,图解复杂公式、代码实现细节, 1比1复现原论文

  • 完整构建LLM知识体系, 拒绝知识碎片化

0181a8033f983ac0e8d69c062c7f9b30.png

3.3 源码工程+Notebook

  • pytorch工程,代码精简,全部调试可运行,CPU都能Run的代码

  • 复杂代码Notebook随手debug,不惧手撕代码

  • 非调包级工程、坚持逐行代码剖析算法原理,从代码视角,解密复杂的公式原理。

6049d56a1469fa69631b12a3b5fb621d.png

手撕RLHF PPO代码-Pytorch实现, 不依赖RL库

LLM中的RLHF-PPO算法复杂, 逐行手撕LLM中的PPO算法, 主要通过Pytorch实现。

包含4个模型:Ref/Actor/Critic/Reward、PPO采样及训练流程、Loss计算Actor Loss+Critic Loss+Entropy、reward+KL散度...

ae44296069566924b7b2b336dc01197f.png

3.4 实操项目

实操项目1 :垂域LLM微调Notebook

  • 1个月从0搭建LLM,覆盖LLaMA-LoRA-Pretrained-sft-RM-RLHF

a26b871137ee791c3dd22ee9d0c70858.png

 实操项目2 :DeepSpeed + RLHF + DPO + PPO 代码仓库

8a569022b89b0caf4aeab5feadfbf3b0.png

DeepSpeed多卡RLHF-PPO训练实操

Llama-3-8B 全流程实操训练效果

基于Llama-3-8B 预训练模型,混合中英alpaca和ruozhiba数据; 全参微调SFT,轻松回复ruozhiba问题

d04b16598b44037f296f819399007bb5.png

QLoRA高效微调DPO、Reward Model和PPO

低成本即可 run 出项目效果

课程Llama-3-8B PPO 训练模型效果

bd17e1529f92ec7b3a1ecc74be3106d9.png

54d98f578b64d94076abc9598ee9a62e.png

项目新增70B SFT/DPO/PPO 训练方案

293b9ef3317746275f71b21e9990d290.jpeg

70B 模型PPO 训练耗时

实践平台:A100(80G)x8

62b247db777315f624bbdd9e1c8ae813.png


四、LLM社群 & 教学成果

4.1 内部LLM社群

  • 部分学员就职 Meta、google、微软、亚马逊、高通、阿里、百度等海内外大厂

  • 超50%成员来自海外名校,北美 PhD 居多

  • 部分学员本身从事 LLM 相关岗位,有的本身就在各大厂做 LLM 相关的负责人,手上也有HC,能直接触到一线的机会

43a18b9b2c01078809a551b7f7e454cf.png

f4af9de94b359ea3b89cbbcc6236cf77.png

4.2 部分教学成果

1️⃣:社科女PhD凭借RLHF成功拿到国内多家高校副教授教职

2️⃣:北美同学拿下顶尖实验室合作机会

3️⃣:复旦应届生物信息硕士拿下LLM工作

4️⃣:资深NLP工程师成功收获大模型远程工作机会

5️⃣:北美PhD凭借课程学习成功抓住公司内部大模型业务负责人机会

6️⃣:TOP2硕暂已3个LLM核心岗位谈薪中

7️⃣:互联网大厂进入最后hr面

8️⃣:北美本硕收获 3 offer

9️⃣:明星startup入职,医疗业务

8f7c0d16f973fcfac460f2bf1781ffe2.png

ecd2d98c2e47edf40f6e0b385f631d97.png

583a1cd70e391d403fa37f202b025aa4.png


(注:不提供算力,本课程所提供项目可在多卡环境一键运行,能低成本run出大模型项目

我是小冬瓜AIGC,原创超长文知识分享

原创课程已帮助多名同学上岸LLM赛道

知乎/小红书 :小冬瓜AIGC

e276bf75474995ae126b489e9dcd73f9.png

微信咨询xiaodongguaAIGC

e2838568cb535d9d01e9a28ad1921ad4.jpeg

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值