Hugging Face PEFT 库
PEFT 是一个为大型预训练模型提供多种高效微调方法的Python 库。
微调传统范式是针对每个下游任务微调模型参数。大模型参数总量庞大,这种方式变得极其昂贵和不切实际。
PEFT 采用的高效做法是训练少量提示参数(Prompt Tuning)或使用低秩适应(LoRA)等重新参数化方法来减少微调时训练参数的数量。

Hugging Face PEFT 库支持的模型和微调方法
## PEFT 与Transformers 如何集成?
复习:Transformer 预训练模型常见分类

应用:Transformers AutoModel 常见模型