LoRA不香了,小小Llama-3全参训练,拿下!!

我是小冬瓜AIGC,原创超长文知识分享

原创课程已帮助多名同学上岸LLM赛道

知乎/小红书 :小冬瓜AIGC

基于Llama-3-8B预训练模型全参SFT微调

中文问答轻松秒了ruozhiba

7965018ce99ed078ab6de072d04a7039.png

经过DPO/PPO强化学习训练

便可胜任代码生成/中英文安全对话

Llama-3-8B-PPO 代码生成:

62a93f8917c8d494e18448aa6998be7d.png

Llama-3-8B-PPO 中文问答实例:

5ae008d94afeabb6ea8b50d2e859707f.png

本效果为课程的实操实际结果可复现,更多课程内容详情如下:

一、课程概况

  • 课程内容:直播 + 往期录播 + 手撕级Notebook + 非调包源码 + 算法图解 + 课程PPT

  • 课程项目:垂域大模型实操 + DeepSpeed多卡SFT、RM、RLHF、DPO训练

  • 进阶专题:手撕LLaMA、手撕RL、手撕RLHF PPO(Notebook)、LLM加速、LLM分布式训练、

  • 入门要求:Pytorch+神经网络或深度学习基础

  • 授课形式:每周2章节直播,5周上完前10章节

  • 价格:私聊单独咨询

  • 实操效果:本课程代码仓库MA-RLHF,实战多卡训练; 已全线支持Llama-3-8B SFT全参微调,LoRA微调DPO、RM、PPO;支持低成本百元 8B DPO训练;支持70B模型SFT/DPO训练

    二、课程目录

c9687830210aaab1d4f69dab576a730c.jpeg

详细目录:第9/10章节-RL/RLHF

d315a016488b1ef0475a691a0ccbf19d.png

第11章节-LLM加速(以长文档形式授课)

a134993c058487d8b9989ae615d6c83d.png

第12章节-LLM分布式训练(以长文档形式授课)

bfb8e07bbd972551750fc7caf3664d07.png

三、课程内容详情

3.1 课程直播+录播

  • 已成功开展 7 期【手撕LLM+RLHF】课程,目前9期可约

  • 在线直播授课、随讲随答,即刻解疑瞬间秒懂, 直播课程会进行录制,便于课后随时学习。

be24e394cc0b314bc141b003ebc6d46e.png

3.2 课件PPT

  • 每章均有完整PPT,图解复杂公式、代码实现细节, 1比1复现原论文

  • 完整构建LLM知识体系, 拒绝知识碎片化

81a733763b4d05deb487ae98eb174b75.png

3.3 源码工程+Notebook

  • pytorch工程,代码精简,全部调试可运行,CPU都能Run的代码

  • 复杂代码Notebook随手debug,不惧手撕代码

  • 非调包级工程、坚持逐行代码剖析算法原理,从代码视角,解密复杂的公式原理。

1fc0a4c5e6889f53b2bb1880d4e0fbcc.png

手撕RLHF PPO代码-Pytorch实现, 不依赖RL库

LLM中的RLHF-PPO算法复杂, 逐行手撕LLM中的PPO算法, 主要通过Pytorch实现。

包含4个模型:Ref/Actor/Critic/Reward、PPO采样及训练流程、Loss计算Actor Loss+Critic Loss+Entropy、reward+KL散度...

2a0a28cf7e56864cf7b70e6423ae627a.png

3.4 实操项目

实操项目1 :垂域LLM微调Notebook

  • 1个月从0搭建LLM,覆盖LLaMA-LoRA-Pretrained-sft-RM-RLHF

0de6364326bed7e6437663742101c814.png

 实操项目2 :DeepSpeed + RLHF + DPO + PPO 代码仓库

761599849a71fb428292dbaeb01f305a.png

DeepSpeed多卡RLHF-PPO训练实操

Llama-3-8B 全流程实操训练效果

基于Llama-3-8B 预训练模型,混合中英alpaca和ruozhiba数据; 全参微调SFT,轻松回复ruozhiba问题

16caf279553036b7b1be38093d6f8c8d.png

QLoRA高效微调DPO、Reward Model和PPO

低成本即可 run 出项目效果

课程Llama-3-8B PPO 训练模型效果

22686c2a95109edc0615000fbd6d4a75.png

352c0a29b697ab443490a89c4c8f40c0.png

项目新增70B SFT/DPO 训练方案

4319b7740627863c354a8c6ae2e02199.jpeg

LLaMA-2-7B  SFT/DPO/PPO 训练效果

c30e691ca946addae3ca4b5e46afe66d.jpeg

本课程提供的代码仓库,DPO 安全对齐效果

4x3090(24GB) DPO训练成本低至百元

36500e69fc1c80bee518408598b7f333.jpeg

PPO训练效果

1fb3c4e88a982dd12796ae3c952bfff1.jpeg

四、LLM社群 & 教学成果

4.1 内部LLM社群

  • 部分学员就职 Meta、google、微软、亚马逊、高通、阿里、百度等海内外大厂

  • 超50%成员来自海外名校,北美 PhD 居多

  • 部分学员本身从事 LLM 相关岗位,有的本身就在各大厂做 LLM 相关的负责人,手上也有HC,能直接触到一线的机会

182a41cae0f7298a51d3e2cbfa8190cd.png

43547f75810924e446359ca9ee776149.png

4.2 部分教学成果

1️⃣:社科女PhD凭借RLHF成功拿到国内多家高校副教授教职

2️⃣:北美同学拿下顶尖实验室合作机会

3️⃣:复旦应届生物信息硕士拿下LLM工作

4️⃣:资深NLP工程师成功收获大模型远程工作机会

5️⃣:北美PhD凭借课程学习成功抓住公司内部大模型业务负责人机会

6️⃣:TOP2硕暂已3个LLM核心岗位谈薪中

7️⃣:互联网大厂进入最后hr面

8️⃣:北美本硕收获 3 offer

9️⃣:明星startup入职,医疗业务

756039c2ff5af74fd134546de2143fce.png

b1baa4c066ba11bd205908c9973a40fb.png

22e25f8e169197088547d7e92ae40ad9.png



(注:不提供算力,本课程所提供项目可在多卡环境一键运行,能低成本run出大模型项目

我是小冬瓜AIGC,原创超长文知识分享

原创课程已帮助多名同学上岸LLM赛道

知乎/小红书 :小冬瓜AIGC

7155732d8412d4e669aa491e5498633d.png

微信咨询xiaodongguaAIGC

f9d97d05f5bf3179724a42652da2090e.jpeg

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值