一.引言 I. Introduction
LLM 使用过程中最常用方法之一就是通过 LoRA 基于自己的数据对大模型进行微调,本文简单介绍 LoRA 原理以及如何合并多个 LoRA 模型并保存。
peft==0.4.0
transformers==4.29.1
本文介绍了LoRA技术,用于大模型的低内存微调。通过低秩分解更新矩阵,减少训练参数,提升效率。LoRA模型可以合并,形成独立模型,甚至合并多个LoRA模型以处理不同任务,而不会显著增加推理延迟。同时,介绍了如何保存合并后的模型。
LLM 使用过程中最常用方法之一就是通过 LoRA 基于自己的数据对大模型进行微调,本文简单介绍 LoRA 原理以及如何合并多个 LoRA 模型并保存。
peft==0.4.0
transformers==4.29.1
2090
3040
1万+

被折叠的 条评论
为什么被折叠?