QLoRA微调文本生成实战《一、LoRA与QLoRA》

本文介绍了LoRA的基本原理,它通过低秩分解降低模型复杂度,提高泛化能力。QLoRA作为LoRA的优化版,采用分块量化、双重量化和分页优化器,进一步提升效率。文章还提供了QLoRA的实战指导,包括安装和训练过程。
摘要由CSDN通过智能技术生成


前言

随着大模型的火爆,展现出了十分出彩的技能。但是如何飞入寻寻常百姓家?学者们不断尝试研究通过不同的结构调整,或者增加或者减少,或者部分或者整体参数设计。主要代表:Prompt Tuning、Prefix Tuning 、P-tuning、LoRA。

本文从LoRA与QLoRa开始导入描述


一、LoRA基本原理

LoRA(Low-Rank Adaptation) 本质上是对特征矩阵进行低秩分解的一种近似数值分解技术,可用来大幅降低特征矩阵的参数,但是会伴随着有损压缩。其核心思想是将大模型的参数分解为低纬的核心参数和高纬的残差参数。在微调过程中只更新LoRA参数,而保持核心参数不变,这种参数分解的方式见底了模型的复杂度,减少了过拟合的风险,并提高了模型的泛化能力。

                                                        LoRa 适配器

小点点: 关于LoRA参数量。假设原始矩阵为 100* 200(m*n)。那么Lora两个矩阵A,B分别为

100*8、8*200,假设r=8。 那么总共参数量变化为:20000 ==》 800+1600 只占原来的十分之一

  • 9
    点赞
  • 16
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值