微调前 internlm2-chat-1.8b 的对话效果
使用vscode自带的端口映射
在网页端打开demo进行对话
准备微调数据
设置微调数据生成脚本的用户名
生成微调的json格式数据
查找XTuner工具里internlm2最相近的配置文件
与需求最匹配的配置文件是 internlm2_chat_1_8b_qlora_alpaca_e3,复制该配置文件
对配置文件进行修改
由于不需要在 HuggingFace 上自动下载模型,因此更换模型的路径以及数据集的路径为本地的路径
evaluation_inputs参数来设置多个问题来确保模型在训练过程中的变化是朝着我们想要的方向前进的。添加自己的输入
由于我们准备的数据集是 JSON 格式的数据,并且对话内容已经是 input 和 output 的数据对,所以不需要进行格式转换
开始微调训练
模型格式转换
部署微调后的模型,成功实现小助手