DataWhale夏令营(第三期)逻辑推理赛道笔记

Datawhale第三期夏令营(逻辑推理方向)是基于上海科学智能研究院举行的第二届世界科学智能大赛逻辑推理赛道:复杂推理能力评估的人工智能技术学习交流夏令营。我们自然要从赛题本身开始看看。

赛题背景

本次比赛提供基于自然语言的逻辑推理问题,涉及多样的场景,包括关系预测、数值计算、谜题等,需要通过分析推理数据,利用机器学习、深度学习算法或者大语言模型建立预测模型。

初赛

任务:构建一个能够完成推理任务的选择模型

运用机器学习模型或者深度学习模型解决推理问题。或者利用训练集数据对开源大语言模型进行微调。

赛题分析

本题可以使用自己训练的模型或者微调的开源大模型参加比赛。在计算资源有限的情况下,使用大模型微调的方法是性价比更高且效果更好的方法。

作为大模型微调技术的小白,跟着DataWhale的学习路线走,属实受益匪浅。首先是Task1和Task2,给了许多模型微调的灵感。为特定任务微调大语言模型,关键在于“输入-处理-输出”过程的调教。在输入中,需要注意Prompt的书写技巧,一般应呈现“身份+背景+任务+目的”的结构,可以将模型调教得更加符合需求。在这个推理的过程中,为了加快速度,可以采取多线程并行推理。在输出中,需要将输出答案提取出来,并重写为需要的形式;如果遇到错误的输出或者缺失的输出,可以考虑采用默认项的形式或者重新发送给大模型推理的办法补全输出。

接着就是难度更大的Task3,引入了LoRA作为微调的工具,以及vllm加速框架,让我对大模型微调有了更多的了解。此外,Task3中涉及到的多路LLM投票方法也确实有助于我对这个任务的理解。

总的来说,这次夏令营我的收获颇多。但是受限于本身的的技术水平,我也没能更好地利用DataWhale的技术文档。希望我能在接下来的夏令营中再接再厉,磨练技术。

Datawhale第三期夏令营(逻辑推理方向)是基于上海科学智能研究院举行的第二届世界科学智能大赛逻辑推理赛道:复杂推理能力评估的人工智能技术学习交流夏令营。我们自然要从赛题本身开始看看。

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值