大模型高效微调(PEFT)技术
预训练模型的背景
- 预训练与微调:传统的微调方法通常涉及对整个预训练模型的参数进行再训练,以适应特定任务。这虽然有效,但计算成本高,且需要大量的标记数据。
- 模型结构:像BERT或GPT这样的模型通常包含数亿甚至数十亿个参数,构成一个深层次的Transformer网络。
Before PEFT: in-context learning (prompt)
Before PEFT: Hard Prompt
Before PEFT: Hard Prompt for text2image (Made by SD XL)
Before PEFT: Hard Prompt for text2image (Made by SD XL)
Before PEFT: Hard Prompt for text2image (Made by Midjourney)
Before PEFT: Hard Prompt for text2image (Made by DALL·E 3)
Before PEFT: Prom