【书生浦语第二期实战营学习笔记&作业(四)】

课程文档:https://github.com/InternLM/Tutorial/blob/camp2/xtuner/readme.md
作业文档:https://github.com/InternLM/Tutorial/blob/camp2/xtuner/homework.md

书生浦语第二期实战营学习笔记&作业(四)

1.1、微调理论讲解及 XTuner 介绍

  • 两种Finetune范式: 增量预训练和指令跟随在这里插入图片描述
    增量预训练和指令跟随 区别:
    在这里插入图片描述
  • 一条数据的一生:
    在这里插入图片描述
    在这里插入图片描述
    在这里插入图片描述

1.2 微调方案 LoRA & QLoRA

在这里插入图片描述
LoRA介绍: LLM的参数量主要集中在模型中的Linear,训练这些参数会耗费大量的显存。
LoRA通过在原本的Linear旁,新增一个支路,包含两个连续的小Linear,新增的这个支路通常叫做 Adapter。
Adapter 参数量远小于原本的Linear,能大幅降低训练的显存消耗

LoRA & QLoRA对比
在这里插入图片描述

2.1 XTuner简介

在这里插入图片描述

2.2 XTuner快速上手

在这里插入图片描述
在这里插入图片描述

2.3 XTuner数据引擎

在这里插入图片描述
在这里插入图片描述

3.1 多模态LLM

  • 多模态LLM原理简介
    在这里插入图片描述

  • LLaVA方案简介
    在这里插入图片描述
    在这里插入图片描述

LLaVA方案

在这里插入图片描述

作业:

  1. 准备数据集
    在这里插入图片描述
  2. 模型训练
    在这里插入图片描述
    在这里插入图片描述
    对话测试:
    微调后的模型
    在这里插入图片描述
    微调前的模型
    在这里插入图片描述
    Web demo 部署:

在这里插入图片描述

  • 8
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

yqyn

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值