XTuner 微调 LLM

1.Xtuner的优势

XTuner 一个大语言模型&多模态模型微调工具箱。主要具有如下两点优势:

  1. 便捷化: 以 配置文件 的形式封装了大部分微调场景,0基础的非专业人员也能一键开始微调。
  2. 轻量级: 对于 7B 参数量的LLM,微调所需的最小显存仅为 8G,可以再消费级显卡以及colab上部署。
    在这里插入图片描述

2.两种微调方式

微调主要有两种方式,一种是增量训练微调可以增加大模型的新知识,另一种是指令跟随微调可以更好的让大模型和人类交互。
请添加图片描述

3.微调实战

1.基座模型

基座模型是模型微调的基础,微调后的模型可以作为基座模型继续微调,需要大量数据训练。
基座模型壳从HuggingFace下载。

在这里插入图片描述

2.LoRA

LoRA 是一种轻量级的微调技术,可以显著降低微调所需显存占用。Xtuner 通过简单命令实现LoRA。

xtuner train ${CONFIG_NAME_OR_PATH}

也可以增加 deepspeed 进行训练加速:

xtuner train ${CONFIG_NAME_OR_PATH} --deepspeed deepspeed_zero2

生成Adaptor文件

mkdir hf
export MKL_SERVICE_FORCE_INTEL=1
export MKL_THREADING_LAYER=GNU
xtuner convert pth_to_hf ./internlm_chat_7b_qlora_oasst1_e3_copy.py ./work_dirs/internlm_chat_7b_qlora_oasst1_e3_copy/epoch_1.pth ./hf

2.LoRA与基座模型合并使用

xtuner convert merge ./internlm-chat-7b ./hf ./merged --max-shard-size 2GB
# xtuner convert merge \
#     ${NAME_OR_PATH_TO_LLM} \
#     ${NAME_OR_PATH_TO_ADAPTER} \
#     ${SAVE_PATH} \
#     --max-shard-size 2GB

Github地址https://github.com/InternLM/xtuner

  • 1
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 1
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值