XTuner微调LLM:1.8B、多模态和Agent-笔记四

本次课程由XTuner 贡献者李剑锋、汪周谦、王群老师讲解【XTuner 微调 LLM:1.8B、多模态和 Agent】课程

课程视频:http:// https://b23.tv/QUhT6ni

课程文档:https://github.com/InternLM/Tutorial/blob/camp2/xtuner/readme.md

 

 两种Finetune范式

  1. 增量预训练:让基座模型学习到一些新知识,如某个垂类领域的常识
  2. 指令跟随微调:让模型学会对话模板,根据人类指令进行对话

若直接用预训练的模型或增量预训练模型,可能不能回答用户的问题;经过该领域的指令微调,模型以对话的方式准确回答用户的问题。例如: 

 数据处理流程:

原始数据->标准格式数据->添加对话模板->Tokenized数据->添加Label

 

 

 高效微调方法:LoRA、QLoRA

 

 XTuner:

  1. 多种微调算法,多种微调策略与算法,覆兰各类 SFT 场景
  2. 适配多种开源生态,支持加载 HuggingFace、 Modelscope 模型或数据集
  3. 自动优化加速,开发者无需关注复杂的显存优化与计算加速细节

LLaMa-Factory和Xtuner性能对比 

 Xtuner快速上手示例

 

 

 

 

 

 

 

 InternLM2  1.8B模型

  1. InternLM2-1.88:具有高质量和高适应灵活性的基础模型,为下游深度适应提供了良好的起点。
  2. InternLM2-Chat-1.8B-SFT:在 InternLM2-1.88 上进行监督微调(SFT)后得到的对话模型。
  3. InternLM2-Chat-1.88:通过在线 RLHF 在 InternLM2-Chat-1.8B-SFT 之上进一步对齐。InternLM2-Chat-1.88 表现出更好的指令跟随、聊天体验和函数调用,推荐下游应用程序使用。(模型大小仅为3.78GB)

 

 

 

 

 

 

 

 

 

  • 3
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值