XTuner 微调介绍

本文主要简单介绍微调地基础知识,以及开源微调框架 XTuner的使用。

一. 微调简介

1. Finetune范式

        当我们想要在别人地预训练模型上得到我们想要地能力时,通常我们有两种微调方式:

                1. 增量预训练微调

                2. 指令跟随微调

2. 一条数据地一生

        我们需要地微调的原始数据首先需要转换成工具或模型支持的标准格式数据,然后再转换成为Tokenized数据,添加上标签,最后输入给模型进行训练。

        不同的模型,数据格式可能不同,如下图中,LLama2和InterLM 的对话模板的开始,结束符不同。

3. LoRA & QLoRA

        LoRA通过在原本的Liner曾旁边,新增一个支路,包含两个利阿努的小Linear,新增的支路通常叫做Adapter,也就是我们需要训练的参数。这个Adapter一般参数较小,使得我们可以在较小资源下进行模型的微调训练。

        QLoRA 对比LoRA是进一步将模型的参数类型转换为了4bit 的数据,进一步降低了内存的消耗。

二. XTuner

1. Xtuner简介        

        XTuner 提供一整套的训练框架,从数据的处理,到内存优化,训练加速等。而且操作简单,0基础的非专业人员也能一键开始微调。同时对内存也做了大量优化,微调7B参数两的LLM,最小仅需要8GB显存即可。

        XTuner也支持非常多硬件,软件生态,主流大模型都提供支持,可以一键开启训练。

        Flash Attention和DeepSpeed ZeRO 是XTuner最重要的两个优化技巧。

        Flash Attention将Atention计算并行化,避免计算过程中大量的显存占用;ZeRO通过状态切片,可进行多机多卡的训练,同时也能节省内存占用。

 2. XTuner快速上手

3. 多模态微调

        多模态微调对比文本单模态微调,新加入了将图像转换为图像向量输入给大模型,完成训练,即可得到图像分析的能力。

  • 4
    点赞
  • 6
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

有意思科技

给与不给,我都会更新

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值