如何理解Lora

 一段Lora代码示例:

class LoRALayer(nn.Module):
    def __init__(self, input_dim, low_rank_dim):
        super(LoRALayer, self).__init__()
        self.U = nn.Linear(input_dim, low_rank_dim, bias=False)
        self.B = nn.Linear(low_rank_dim, input_dim, bias=False)
 
    def forward(self, x):
        return x + self.B(self.U(x))

 Lora的原理图如图所示

由此可知,Lora模型其实就相当于你在指定的两层大模型之间,新增了一层带计算的残差结构,这样的话可以利用打Patch的方式,去对原始模型进行功能扩展,而仅需要如下基础信息:

  1. Lora的模型参数
  2. Lora的相对于原始模型的配置位置

这种方式其实是改变了原始模型结构,虽然改动不大,但是对于一些基于Graph加速的编译器来说,会影响这些模型的编译。

  • 2
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

碳纤维石头君

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值