书生·浦语大模型实战营Day04微调
微调
为什么微调?
- 缺少领域知识
两种微调范式
- 增量预训练:垂直领域的常识。书籍、文章、代码等。
- 指令跟随微调:高质量的问答数据。对话、问答数据。
- 二者区别
一条数据的一生
- 原始数据:原始数据
- 标准格式数据:Json数据
- 对话模板:准备Json数据后,自动组装
微调方案:LoRA和QLoRA
- 基座模型不变,微调一个LoRA模型。减少显存
- LoRA:Low-Rank Adaptation of Large Language Models
- Full Finetuning vs LoRA vs QLoRA
Xtuner 微调
Xtuner微调
- 傻瓜化:容易上手
- 轻量级:8GB显存
- 多种生态、多种硬件
环境配置
模板选择
- 自定义训练
- 对话
Xtuner数据引擎
- 统一处理数据格式:数据预处理
- 多数据拼接:并行
- 加速方式:Flash Attention(自动开启)、DeepSpeed ZeRO
InternLM2 1.8B
- 8GB显存
- InternLM2-Chat-1.8B
多模态LLM
多模态LLM原理
- 给LLM装上电子眼:多模态LLM原理简介
LLaVA方案
- 什么型号的电子眼:LLaVA方案简介
- LLaVA:有点类似LoRA(文本+图像)
InternLM2-Chat-1.8B+LLaVA
- 快速上手:InternLM2-Chat-1.8B+LLaVA
- 预训练+高质量的有监督Funetune