XTuner大模型单卡低成本微调实战笔记和作业

书生·浦语大模型实战营笔记系列`

4)XTuner大模型单卡低成本微调实战笔记和作业



前言

承接第三节课这节课来展开讲讲Finetune以及xtuner这个框架
在这里插入图片描述


一、Finetune

包括增量预训练微调和指令跟随微调
在这里插入图片描述

1.指令跟随微调

在这里插入图片描述

2.增量预训练微调

在这里插入图片描述

3.LoRA和QLoRA

xtuner中使用的微调原理是LoRA和QLoRA
在这里插入图片描述
全参数微调 vs LoRA微调 vs QLoRA微调
在这里插入图片描述

二、Xtuner

在这里插入图片描述

三、8GB玩转LLM

xtuner默认启动了flash attention

在这里插入图片描述

四、动手实战部分

这部分继续放上源文档
源视频
作业是一个更好的动手操作验证的例子
如果只做课后作业来实践的话,感觉这里可以着重看看那配置文件的常用超参部分,区分一下用基础模型的chat和基础模型加Adapter的chat以及merge后的chat,最后就是课程里补充的Ms-Agent 数据集赋予的LLM以Agent能力,可以学一下怎么训练到模型学会调用Agent。

五、课后作业

在这里插入图片描述
训练的时候可以改下batch也可以加快哦,我好像改到8了
若要开启 deepspeed 加速,增加 --deepspeed deepspeed_zero2 即可

作业参考源文档
作业源视频
跟着这个微调的效果有点差强人意(过拟合了哈哈,如果不想过拟合训练的时候可以加点别的内容
以下是我的作业截图
在这里插入图片描述


总结

学习了一下对大模型的微调,估计还是要对数据集进行实操一下才能更深刻的理解,不过看看吧(希望不懒哈哈

  • 13
    点赞
  • 10
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值