逻辑推理之lora微调

比赛介绍

本比赛旨在测试参与者的逻辑推理和问题解决能力。参与者将面对一系列复杂的逻辑谜题,涵盖多个领域的推理挑战。
比赛的连接:第二届世界科学智能大赛逻辑推理赛道:复杂推理能力评估
在这里插入图片描述

准备内容

选择相应的GPU环境以及对应的镜像,这里使用到的是魔搭社区的内容
在这里插入图片描述

lora微调

lora微调介绍

LoRA(Low-Rank Adaptation)微调是一种高效的模型微调技术,特别适用于大型预训练语言模型的适应性调整。LoRA的核心思想是通过引入低秩矩阵来调整模型的权重,从而在不显著增加模型参数数量的情况下,实现对模型的微调。

lora优势

  • 可以针对不同的下游任务构建小型 LoRA 模块,从而在共享预训练模型参数基础上有效地切换下游任务。
  • LoRA 使用自适应优化器(Adaptive Optimizer),不需要计算梯度或维护大多数参数的优化器状态,训练更有效、硬件门槛更低。
  • LoRA 使用简单的线性设计,在部署时将可训练矩阵与冻结权重合并,不存在推理延迟。
  • LoRA 与其他方法正交,可以组合。

代码内容

在这里插入图片描述
复制内容:

git clone https://www.modelscope.cn/datasets/Datawhale/DW2024_Complex_reasoning_ability_assessment_qwen2-7b-lora.git

之后就会看到有一个文件夹,点击进去,选择 lora.ipynb
运行前两个代码
在这里插入图片描述
然后逐个运行下面的代码

start_vllm

相关介绍

vLLM(Virtual Large Language Model)是一个由伯克利大学LMSYS组织开源的大规模语言模型高速推理框架。它的设计目标是在实时应用场景中大幅提升语言模型服务的吞吐量和内存使用效率。vLLM的特点包括易于使用、与Hugging Face等流行工具无缝集成以及高效的性能。

调用

调用这个vllm的服务
选择start_vllm.ipynb
在这里插入图片描述

运行主函数

运行主函数 baseline2_main.ipynb
然后要注意的是要上传相应的test的文件
在这里插入图片描述

提交结果

将生成的文件upload.jsonl提交到官网,得到相应的分数
在这里插入图片描述

总结

主要就是根据datawhale所给到的相应学习资料进行一个运行操作,了解了这个模型调整的内容,对自己来说有很多还有学习的地方

相应连接

文章当中的内容都是由datawhale所给出

https://tianchi.aliyun.com/notebook/757650

Datawhale AI夏令营第三期逻辑推理赛道baseline02跑通指南

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值