PEFT qwen2 lora微调模型训练案例

参考:
https://github.com/huggingface/peft
##文档
https://huggingface.co/docs/peft/index

https://www.wehelpwin.com/article/4299

https://www.ethanzhang.xyz/2024/07/09/%E3%80%90%E4%B8%AA%E4%BA%BA%E5%8D%9A%E5%AE%A2%E3%80%91%E4%BD%BF%E7%94%A8huggingface%E5%9C%A8%E5%8D%83%E9%97%AE2%E5%9F%BA%E7%A1%80%E4%B8%8A%E8%BF%9B%E8%A1%8CLora%E6%8C%87%E4%BB%A4%E5%BE%AE%E8%B0%83/

PEFT(参数高效微调)是一个库,用于高效地将大型预训练模型适配到各种下游应用中,而无需对模型的所有参数进行微调,因为这样做成本过高。PEFT 方法仅微调少量(额外)模型参数 - 显著降低计算和存储成本 - 同时产生与完全微调模型相当的性能。这使得在消费级硬件上训练和存储大型语言模型(LLM)变得更容易。PEFT 与 Transformers、Diffusers 和 Accelerate 库集成,为加载、训练和使用大型模型进行推理提供了更快、更简便的方法。

PEFT 用于微调大型预训练模型的参数高效方法。
重要亮点
传统微调范式的问题:传统为每个下

  • 8
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

loong_XL

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值