第四次大模型微调
比较于第三次微调,这一次添加了prompt:
self.system_prompt = "一位用户和智能医疗大模型HuatuoGPT之间的..."
这个prompt会在每条数据前面加上,这也是原版huatuoGPT微调时使用的方法。
使用了之前的firefly开源代码(qlora方法)
使用的数据集:huatuo-sft-data-v1
训练时间:两天
训练参数:
相比于第三次微调,这次我加大了学习率和lora_rank
loss曲线:
其中绿色的为第四次微调loss,紫色的为第三次的结果
结果:
目前没有确切的量化评估方法来评估大模型的效果,根据与大模型的交互来看,大模型的回答比较流畅,问及与疾病相关的问题也会给出相应的建议。
但也存在以下问题:
- 通过外网访问的服务要比本地服务的差,具体来说同一个问题,本地服务的回答更丰富一些,外网服务的回答则敷衍。
- 不管是内网还是外网,大模型的回答都有很强烈的倾向,让用户去医院问诊,从而给出敷衍的回答。