Datawhale AI夏令营-大模型微调 学习记录

任务介绍

参与讯飞星火大模型驱动阅读理解题库构建挑战赛报名参加项目,并提交成绩参与评分,评分成功即可。如果经过学习得到的评分较高,还有机会赢取讯飞的奖金(第一名15000元、第二名10000元、第三名5000元),非常有吸引力!

学习过程

第一次参与datawhale的活动,感觉还蛮不错的。

官方首先提供了一个非常完善的baseline,然后第一个task也很简单,就是跑通baseline就行了,对于初学者非常友好,甚至有点过于友好了,就直接notebook运行就得到结果了,入手非常丝滑!最后将处理得到的数据集送入官方给的转换接口转换一下就可以直接训练了。感觉有一个缺点是,官方给的训练过程完全是一个黑盒,能控制的参数只有学习率和epoch,而且训练的过程也很不稳定,经常会出现训练失败的情况,而且同一份数据集进去,同样的参数出来的结果相差能有20分之多,就随机性挺大的吧。

Task2就是专门的老师带着去深入的读了baseline,感觉大部分是python和正则表达式的内容,(因为主要就是对官方给的数据集做一些处理),已经开始有点难度了,尤其是正则表达式的部分,不熟悉的人可能会看不懂,不过老师给的代码也非常优秀,基本上可以把官方给的数据集很好的解析出来,不过数据集中也有很多问题,可能是OCR扫描的时候就已经带来的,比如选项错位了,英文和俄文的字母了之类的,还是挺麻烦的,幸好老师都已经提前注意到了,避免了很多坑。

Task3是老师在Task2中提到的,也是现在业界好像常用的方法,就是让大模型去优化数据集,然后再反过头来训训练大模型哈哈哈。这一部分,有使用API调用大模型的方法,利用API去批量地根据已有的阅读材料去生成一些问题,或者对现在已有的格式有问题的问题进行补充,不得不说大模型确实很强。但是在这一部分,查看大模型生成的问题,感觉就像是在文中找已有的信息,然后杂糅,并没有看到一些思想或者情感上的问题,感觉是只有阅读没有理解,没有感情的题目生成机器。

学习体验

这次学习过程中,感觉官方给开放出来的接口太少了,完全接触不到大模型原理性质的东西,基本就是在数据集和prompt上做文章,当然也不是说这两个方面不重要,只是对于模型深度的理解并没有什么提升,只是自己查资料了解了一些LoRA的基本原理,剩下的就是正则表达式方面,学到一些东西,总体来说,感觉课程内容更偏向于入门和基础,想深入了解大模型的知识还得再自己找资料。

评论 2
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值