大模型参数高效微调技术原理综述 之 LoRA、AdaLoRA、QLoRA

本文详细介绍了大模型参数高效微调的三种技术——LoRA、AdaLoRA和QLoRA,旨在解决大模型微调的资源消耗问题。LoRA通过低秩分解模拟参数变化,AdaLoRA动态分配参数预算以适应权重矩阵的重要性,QLoRA实现了4 bit量化模型的高效微调。这些方法在减少参数量的同时保持或提高模型性能。
摘要由CSDN通过智能技术生成

随着,ChatGPT 迅速爆火,引发了大模型的时代变革。然而对于普通大众来说,进行大模型的预训练或者全量微调遥不可及。由此,催生了各种参数高效微调技术,让科研人员或者普通开发者有机会尝试微调大模型。

因此,该技术值得我们进行深入分析其背后的机理,本系列大体分七篇文章进行讲解。

  • 大模型参数高效微调技术原理综述(一)-背景、参数高效微调简介

  • 大模型参数高效微调技术原理综述(二)-BitFit、Prefix Tuning、Prompt Tuning

  • 大模型参数高效微调技术原理综述(三)-P-Tuning、P-Tuning v2

  • 大模型参数高效微调技术原理综述(四)-Adapter Tuning及其变体

  • 大模型参数高效微调技术原理综述(五)-LoRA、AdaLoRA、QLoRA

评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值