- 博客(1)
- 收藏
- 关注
原创 Datawhale AI 夏令营 Task4笔记
大模型全量微调需要调整的参数多,调试成本高,故可以使用参数高效微调,也称“轻量化微调”,如Lora,prompt Turing、Adapter等。下载模型,训练模型使用checkpoints,设置Lora参数设置LoraConfig。构建数据处理函数:将输入转换为id,并与mask、output拼接,测试效果。使用peft构建一个peftmodel,使用了Lora的参数。使用阿里云的PAI-DSW,运行Task4。指令微调:以问答形式进行,激发模型的能力。每次epoch打印loss。
2024-08-20 23:28:08 100
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人