指令微调:以问答形式进行,激发模型的能力
大模型全量微调需要调整的参数多,调试成本高,故可以使用参数高效微调,也称“轻量化微调”,如Lora,prompt Turing、Adapter等。
使用阿里云的PAI-DSW,运行Task4
下载数据
构建数据处理函数:将输入转换为id,并与mask、output拼接,测试效果
下载模型,训练模型使用checkpoints,设置Lora参数设置LoraConfig
使用peft构建一个peftmodel,使用了Lora的参数
实例化一个Trainer,设置参数开始训练
每次epoch打印loss
使用构建generate测试表现