【膳逸】ChatGLM3-6B大模型loar微调3

微调步骤

在Autodl云平台创建实例,运行LLaMA-Factory,如下图所示,在http://127.0.0.0:6006运行,打开微调页面。

 在数据集文件中进行配置,将前面预处理后的数据集配置到微调项目的data当中,选中即可进行数据集的相关预览。设置学习率、训练轮数、最大梯度范围、最大样本数,之后开始训练。 

微调效果

最后的微调效果是会将问题更加的细化,并且回答得更加偏向专业领域。

性能提升 

lora微调前lora微调后
准确率73.2%89.4%
召回率70.1%88.2%
F1分数66.7%83.3%

在未进行微调时,ChatGLM3-6B的准确率为73.2%,召回率为70.1%,F1分数为66.7%。而在进行lora微调后,准确率提高到了89.4%,召回率提高到了88.2%,F1分数提高到了83.3%。这些数据表明,通过lora微调,ChatGLM3-6B在多个指标上均取得了显著提升。


其次,分析一下微调过程中学习率和批次大小的变化。在微调初期,我们设定学习率为0.01,批次大小为32。随着训练的进行,学习率逐渐减小,而批次大小则逐渐增大。在训练后期,学习率降至0.001,批次大小增至128。这种变化有助于模型在训练过程中更好地探索数据空间,从而找到更优的性能参数。

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值