一、项目介绍:
官方教程:从零入门大模型微调
从零入门大模型微调 是 Datawhale 2024 年 AI 夏令营第四期的学习活动(“大模型技术”方向),基于讯飞开放平台“星火大模型驱动阅读理解题库构建挑战赛”开展的实践学习;
适合想 了解如何微调、学习微调数据处理、学习通过大模型微调实现试卷QA生成 的学习者参与
二、大模型技术(微调)的介绍:
1、基本概念:
微调,也称为Fine-tuning,是指在已经预训练好的大型语言模型(如BERT、GPT等)基础上,使用特定的数据集进行进一步的训练,使模型能够适应特定任务或领域。预训练模型通常在大规模的无标签数据集上进行训练,掌握了语言的统计特征和基础知识。微调则是利用有标签的任务特定数据集,对模型进行进一步的训练,以提高模型在特定任务上的性能。
2、优势:
节省资源:微调不需要从零开始训练一个大型模型,可以节省大量的计算资源和时间。
良好的性能:预训练模型已经具备了丰富的语言知识,微调可以让模型在特定任务上达到很好的性能。
适应性强:微调可以快速适应各种不同的下游任务。
3、方法:
全面微调与参数高效微调。
4、应用场景:
微调技术广泛应用于自然语言处理(NLP)领域的各种任务中,如情感分析、文本分类、命名实体识别、问答系统等。
三、操作过程:
1、运行baseline,进行数据处理:
一键运行代码,下载output.jsonl文件;
2、模型微调:
先在科大讯飞开放平台上传数据,后对数据集进行训练;
一般会训练30分钟左右(目前平台推理时间过长,实际训练时间会更久一些,有的甚至能到3-4h),如果排队的话可能会久一些。
在训练完成以后,将已微调的模型发布为服务;
3、模型测试:
返回notebook,请大家正确输入自己模型的SPARKAI_APP_ID、SPARKAI_API_SECRET、SPARKAI_API_KEY、serviceld和resourceld;
接着运行一下notebook,点击这个代码块左边的启动按钮即可,我们能看到模型的输出。
4、提交模型:
进行到这一步,基本已经完成,后可以在星火大模型驱动阅读理解题库构建挑战赛中提交结果,获得自己的分数。
赛事链接:
下图是我目前获得的分数:
(这是我第一次参加这类比赛,分比较低,请见谅)
如果你对于大模型微调技术感兴趣的话,可以根据我所给出的流程参加比赛。
四、分析与总结:
在进行模型的微调过程中,我了解了整个的流程以及具体的方法,没有出现太大的失误,比较顺利的将这一项目完成。
感谢能读到这里的读者,希望本文对你们能够有所帮助。