书生·浦语大模型实战营Day04微调

本文介绍了大模型微调的不同方法,如增量预训练、指令跟随微调,重点讲解了LoRA和QLoRA技术,以及Xtuner微调的易用性和性能优化。同时探讨了多模态LLM的原理和应用,如LLaVA方案。最后提到了实战营的作业内容,包括个人助手微调和部署等。
摘要由CSDN通过智能技术生成

书生·浦语大模型实战营Day04微调

微调

为什么微调?

  • 缺少领域知识

在这里插入图片描述

两种微调范式

  • 增量预训练:垂直领域的常识。书籍、文章、代码等。
  • 指令跟随微调:高质量的问答数据。对话、问答数据。

在这里插入图片描述

  • 二者区别

在这里插入图片描述

一条数据的一生

  • 原始数据:原始数据
  • 标准格式数据:Json数据

在这里插入图片描述

  • 对话模板:准备Json数据后,自动组装

在这里插入图片描述

在这里插入图片描述

在这里插入图片描述

微调方案:LoRA和QLoRA

  • 基座模型不变,微调一个LoRA模型。减少显存
  • LoRA:Low-Rank Adaptation of Large Language Models

在这里插入图片描述

  • Full Finetuning vs LoRA vs QLoRA

在这里插入图片描述

Xtuner 微调

Xtuner微调

  • 傻瓜化:容易上手
  • 轻量级:8GB显存

在这里插入图片描述

  • 多种生态、多种硬件

在这里插入图片描述

环境配置

在这里插入图片描述

模板选择

  • 自定义训练

在这里插入图片描述

  • 对话

在这里插入图片描述

Xtuner数据引擎

  • 统一处理数据格式:数据预处理

在这里插入图片描述

  • 多数据拼接:并行

在这里插入图片描述

  • 加速方式:Flash Attention(自动开启)、DeepSpeed ZeRO

在这里插入图片描述

InternLM2 1.8B

  • 8GB显存
  • InternLM2-Chat-1.8B

在这里插入图片描述

多模态LLM

多模态LLM原理

  • 给LLM装上电子眼:多模态LLM原理简介

在这里插入图片描述

LLaVA方案

  • 什么型号的电子眼:LLaVA方案简介
  • LLaVA:有点类似LoRA(文本+图像)

在这里插入图片描述

InternLM2-Chat-1.8B+LLaVA

  • 快速上手:InternLM2-Chat-1.8B+LLaVA
  • 预训练+高质量的有监督Funetune

在这里插入图片描述

作业

在这里插入图片描述

个人小站:https://www.xiaowangyun.com

评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值