Xtuner微调笔记

Xtuner学习视频

两种微调范式

在这里插入图片描述
在指令微调的过程中,需要高质量的对话数据。
而构建高质量的对话(指令)数据,则涉及到以下流程
在这里插入图片描述

  1. 先通过system/user/assistant的json格式来构造对话模板,把问题和期望模型做出的回答通过这样的格式进行封装
  2. 不同的模型有不同的模板来区分system/user/assitant的字段,即一些特殊字符在这里插入图片描述
    真正喂给模型的东西是经过chat template包装后的内容
    在这里插入图片描述
    模型只会对【输入的信息里的assitant输出的答案进行loss计算】

微调方案

lora

在这里插入图片描述

Qlora

全参数微调是整个模型加载到内存中,并且所有参数的优化器状态也会加载
lora微调是整个模型参数加载到内存中,但是只加载lora的部分参数的优化器状态
qlora是整个模型的参数都以4bit的形式加载
在这里插入图片描述

  • 7
    点赞
  • 5
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值