使用qLoRA方法微调Baichuan模型

第四次大模型微调

比较于第三次微调,这一次添加了prompt:

self.system_prompt = "一位用户和智能医疗大模型HuatuoGPT之间的..."

这个prompt会在每条数据前面加上,这也是原版huatuoGPT微调时使用的方法。

使用了之前的firefly开源代码(qlora方法)
使用的数据集:huatuo-sft-data-v1

训练时间:两天

训练参数:
相比于第三次微调,这次我加大了学习率和lora_rank
参数
loss曲线:
其中绿色的为第四次微调loss,紫色的为第三次的结果
loss曲线

结果:
目前没有确切的量化评估方法来评估大模型的效果,根据与大模型的交互来看,大模型的回答比较流畅,问及与疾病相关的问题也会给出相应的建议。
但也存在以下问题

  1. 通过外网访问的服务要比本地服务的差,具体来说同一个问题,本地服务的回答更丰富一些,外网服务的回答则敷衍。
  2. 不管是内网还是外网,大模型的回答都有很强烈的倾向,让用户去医院问诊,从而给出敷衍的回答。
  • 5
    点赞
  • 7
    收藏
    觉得还不错? 一键收藏
  • 1
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值