【peft】huggingface大模型加载多个LoRA并随时切换

加载多个LoRA并随时切换

参考Multi Adapter support
要求 peft>=0.3.0

用法说明

  1. 在加载第一个适配器时,可以通过 PeftModel.from_pretrained 方法并指定 adapter_name 参数来给它命名。否则,将使用默认的适配器名称 default
  2. 要加载另一个适配器,请使用 PeftModelload_adapter() 方法,例如:model.load_adapter(peft_model_path, adapter_name)
  3. 要切换适配器,请使用 PeftModelset_adapter() 方法,例如:model.set_adapter(adapter_name)
  4. 要禁用适配器,请使用上下文管理器 disable_adapter(),例如:with model.disable_adapter()
  5. 特别适用于LoRA方法:要合并和卸载当前活动的适配器,以便将LoRA权重添加到基础模型权重中,并将注入的LoRA模型删除以恢复具有添加了LoRA权重的Transformers基础模型的模型,请使用 merge_and_unload()方法,例如:model = model.merge_and_unload()

例子

from peft import PeftModel
from transformers import LlamaTokenizer
评论 5
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值