XTuner 大模型低成本微调操作笔记

本文介绍了如何使用adapter_model.safetensors工具将转换后的LoRA模型与基础模型合并,以及xtunermerge命令的用法。重点提及了自定义微调时面临的挑战,即如何处理用户自己的数据集。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

adapter_model.safetensors是转换后的LoRA模型
在这里插入图片描述
使用xtuner merge命令将转换后的LoRA模型与原模型整合到一块变成一个模型,第一个参数是底座模型路径,第二个参数是HuggingFace格式的LoRA模型路径,第三个参数是保存的目标模型路径,第四个是保存时分块保存大小,例如有个40GB的模型,保存时每块大小为2GB,方便传输和共享。
在这里插入图片描述
看到All done!即保存成功
在这里插入图片描述
基于哪个模型底座,就要使用对应的提示词模板 也可以使用xtuner chat --help查看命令
在这里插入图片描述
加载其他模型可以替换掉此处的路径

在这里插入图片描述
加载完毕,可以进行对话
在这里插入图片描述
输入后敲两次回车才会把问题加载进去,敲一次回车被认为是换行,还能继续写问题
在这里插入图片描述

3.自定义微调

挑战在于使用自己的数据集

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值