LLM课程【书生·浦语 InternLM实战营】4 - Finetune

Finetune简介

为什么finetune

当前大多数大语言模型是底座foundation模型,为一般性任务进行与训练。应用于特定的下游任务,则需要领域内微调以得到更好的表现。

finetune两种范式

  1. 增量预训练微调:foundation模型学习某个垂类领域的知识
  2. 指令微调:让模型学会更精细的问答对话模板

Finetune操作

微调数据处理流程

原始数据 -> 标准格式数据(分角色) -> 对话模板(让LLM知道角色划分) -> Tokenize -> 添加label -> 进行训练

微调方案

LoRA & QLoRA,基座模型不变,在基座模型之上使用LoRA模型

  • Full Finetuning:加载所有模型及其优化器
  • LoRA:加载所有模型和LoRA部分的优化器,节省显存开销
  • QLoRA:用4-bit方式(低精度)加载模型,进一步节省显存开销

InternLM Finetune框架:XTuner

封装好的微调工具箱,以配置文件场景封装finetune场景;显存很低

功能亮点

  • 适配多种生态:多种微调算法、多种开源生态
  • 适配多种硬件
  • 支持工具类模型的对话
  • 提供数据格式转换

用户可以关注数据内容,不必花心思处理复杂的数据格式

操作方法

拷贝配置文件 -> 修改配置文件 -> 运行微调过程 -> 与微调后的模型对话

内置的加速方式

  1. Flash Attention:attention计算并行化
  2. DeepSpeed ZeRO:将训练中间状态切片

自动优化加速(开发者无需过多关注算法细节)

多模态LLM案例:电子眼

增加图像处理的Image Projector,将文本向量与图片向量同时输入LLM得到生成文本

\<question text\>\<image\> -- \<answer text\>
  • 7
    点赞
  • 4
    收藏
    觉得还不错? 一键收藏
  • 1
    评论
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值