Datawhale AI夏令营第四期大模型技术(微调)方向 task01初学者笔记

一、项目介绍:

官方教程:从零入门大模型微调

从零入门大模型微调 是 Datawhale 2024 年 AI 夏令营第四期的学习活动(“大模型技术”方向),基于讯飞开放平台“星火大模型驱动阅读理解题库构建挑战赛”开展的实践学习;

适合想 了解如何微调、学习微调数据处理、学习通过大模型微调实现试卷QA生成 的学习者参与

二、大模型技术(微调)的介绍:

1、基本概念:

微调,也称为Fine-tuning,是指在已经预训练好的大型语言模型(如BERT、GPT等)基础上,使用特定的数据集进行进一步的训练,使模型能够适应特定任务或领域。预训练模型通常在大规模的无标签数据集上进行训练,掌握了语言的统计特征和基础知识。微调则是利用有标签的任务特定数据集,对模型进行进一步的训练,以提高模型在特定任务上的性能。
2、优势:

节省资源:微调不需要从零开始训练一个大型模型,可以节省大量的计算资源和时间。

良好的性能:预训练模型已经具备了丰富的语言知识,微调可以让模型在特定任务上达到很好的性能。

适应性强:微调可以快速适应各种不同的下游任务。

3、方法:

全面微调与参数高效微调。

4、应用场景
微调技术广泛应用于自然语言处理(NLP)领域的各种任务中,如情感分析、文本分类、命名实体识别、问答系统等。

三、操作过程:

1、运行baseline,进行数据处理:

一键运行代码,下载output.jsonl文件;

2、模型微调:
先在科大讯飞开放平台上传数据,后对数据集进行训练;

一般会训练30分钟左右(目前平台推理时间过长,实际训练时间会更久一些,有的甚至能到3-4h),如果排队的话可能会久一些。

在训练完成以后,将已微调的模型发布为服务;

3、模型测试:

返回notebook,请大家正确输入自己模型的SPARKAI_APP_ID、SPARKAI_API_SECRET、SPARKAI_API_KEY、serviceld和resourceld;

 ​ 

接着运行一下notebook,点击这个代码块左边的启动按钮即可,我们能看到模型的输出。

4、提交模型:

进行到这一步,基本已经完成,后可以在星火大模型驱动阅读理解题库构建挑战赛中提交结果,获得自己的分数。

赛事链接:

2024 iFLYTEK AI开发者大赛-讯飞开放平台

下图是我目前获得的分数:

(这是我第一次参加这类比赛,分比较低,请见谅)

如果你对于大模型微调技术感兴趣的话,可以根据我所给出的流程参加比赛。

四、分析与总结:
在进行模型的微调过程中,我了解了整个的流程以及具体的方法,没有出现太大的失误,比较顺利的将这一项目完成。

感谢能读到这里的读者,希望本文对你们能够有所帮助。

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值