阿里深夜发布 QwQ-32B 模型:仅1/20参数就可媲美DeepSeek R1

近期的研究表明,强化学习可以显著提高模型的推理能力。例如,DeepSeek-R1 通过整合冷启动数据和多阶段训练,实现了最先进的性能,使其能够进行深度思考和复杂推理。

阿里通义千问团队探讨了大规模强化学习(RL)对大语言模型的智能的提升作用,同时推出他们最新的推理模型 QwQ-32B。这是一款拥有 320 亿参数的模型,其性能可与具备 6710 亿参数(其中 370 亿被激活)的 DeepSeek-R1 媲美。

这一成果突显了将强化学习应用于经过大规模预训练的强大基础模型的有效性。此外,他们还在推理模型中集成了与 Agent 相关的能力,使其能够在使用工具的同时进行批判性思考,并根据环境反馈调整推理过程。

QwQ-32B 模型效果

QwQ-32B 在一系列基准测试中进行了评估,测试了数学推理、编程能力和通用能力。以下结果展示了 QwQ-32B 与其他领先模型的性能对比,包括 DeepSeek-R1-Distilled-Qwen-32B、DeepSeek-R1-Distilled-Llama-70B、o1-mini 以及原始的 DeepSeek-R1。
在这里插入图片描述
在测试数学能力的 AIME24 评测集上,以及评估代码能力的 LiveCodeBench 中,千问 QwQ-32B 表现与DeepSeek-R1相当,远胜于 o1-mini 及相同尺寸的R1 蒸馏模型;在由Meta首席科学家杨立昆领衔的“最难LLMs评测榜” LiveBench、谷歌等提出的指令遵循能力IFEval评测集、由加州大学伯克利分校等提出的评估准确调用函数或工具方面的BFCL测试中,千问 QwQ-32B 的得分均超越了 DeepSeek- R1。

大规模强化学习

他们在冷启动的基础上开展了大规模强化学习。在初始阶段,特别针对数学和编程任务进行了 RL 训练。与依赖传统的奖励模型(reward model)不同,他们通过校验生成答案的正确性来为数学问题提供反馈,并通过代码执行服务器评估生成的代码是否成功通过测试用例来提供代码的反馈。

他们发现在 RL 扩展过程中,随着训练轮次的推进,这两个领域中的性能均表现出持续的提升。
在第一阶段的 RL 过后,他们增加了另一个针对通用能力的 RL。此阶段使用通用奖励模型和一些基于规则的验证器进行训练。他们发现,通过少量步骤的通用 RL,可以提升其他通用能力,同时在数学和编程任务上的性能没有显著下降。

通过API使用QwQ-32B

以下他们展示了一段简短的示例代码,说明如何通过 API 使用 QwQ-32B。

from openai import OpenAIimport os
# Initialize OpenAI clientclient = OpenAI(    # If the environment variable is not configured, replace with your API Key: api_key="sk-xxx"    # How to get an API Key:https://help.aliyun.com/zh/model-studio/developer-reference/get-api-key    api_key=os.getenv("DASHSCOPE_API_KEY"),    base_url="https://dashscope.aliyuncs.com/compatible-mode/v1")
reasoning_content = ""content = ""
is_answering = False
completion = client.chat.completions.create(    model="qwq-32b",    messages=[        {"role": "user", "content": "Which is larger, 9.9 or 9.11?"}    ],    stream=True,    # Uncomment the following line to return token usage in the last chunk    # stream_options={    #     "include_usage": True    # })
print("\n" + "=" * 20 + "reasoning content" + "=" * 20 + "\n")
for chunk in completion:    # If chunk.choices is empty, print usage    if not chunk.choices:        print("\nUsage:")        print(chunk.usage)    else:        delta = chunk.choices[0].delta        # Print reasoning content        if hasattr(delta, 'reasoning_content') and delta.reasoning_content is not None:            print(delta.reasoning_content, end='', flush=True)            reasoning_content += delta.reasoning_content        else:            if delta.content != "" and is_answering is False:                print("\n" + "=" * 20 + "content" + "=" * 20 + "\n")                is_answering = True            # Print content            print(delta.content, end='', flush=True)            content += delta.content

这是Qwen在大规模强化学习(RL)以增强推理能力方面的第一步。通过这一旅程,他们不仅见证了扩展RL的巨大潜力,还认识到预训练语言模型中尚未开发的可能性。

目前,QwQ-32B 已在 Hugging Face (https://huggingface.co/Qwen/QwQ-32B) 和 ModelScope (https://modelscope.cn/models/Qwen/QwQ-32B) 开源,并采用了 Apache 2.0 开源协议。也欢迎大家通过 Qwen Chat (https://chat.qwen.ai/?models=Qwen2.5-Plus)直接进行体验!

### DeepSeek-R1-Distill-Qwen-32B 模型介绍 DeepSeek-R1-Distill-Qwen-32B 是基于 Qwen2.5-32B 进行蒸馏得到的小规模密集模型之一。该模型通过从大型预训练模型 DeepSeek-R1 中提取知识,显著提升了推理能力和性能表现[^1]。 在开发过程中,研究人员选择了 Qwen2.5-32B 作为基础模型,并直接从 DeepSeek-R1 进行了知识蒸馏。实验结果显示,在多个基准测试中,这种直接蒸馏的方法比使用强化学习优化后的效果更好,表明大模型所发现的推理模式对于提升小模型的能力非常重要[^2]。 ### 性能比较:DeepSeek-R1-Distill-Qwen-32B vs. 14B 版本 研究表明,经过精心设计的知识蒸馏过程后,即使是参数量较少的模型也能达到甚至超过更大规模模型的表现: - **14B 模型**:蒸馏后的 14B 模型大幅超越了当时最先进水平的开源 QwQ-32B-Preview (Qwen, 2024a),显示出强大的竞争力。 - **32B 和 70B 模型**:这些更大的蒸馏版模型保持住了原有优势,还在密集模型中的推理基准上创下了新纪录。特别是 DeepSeek-R1-Distill-Qwen-32B,在某些特定任务上的成绩尤为突出,例如 AIME 2024 数学竞赛方面超过了 GPT-4o 和 Claude 3.5 的表现[^3]。 综上所述,虽然 32B 版本拥有更多的参数数量,但在实际应用场景下两者之间的差距可能取决于具体任务需求;而就整体而言,32B 版本确实展现出了更强的整体实力和更广泛的应用潜力。 ```python # 示例代码展示如何加载并评估两个不同大小的模型 import torch from transformers import AutoModelForCausalLM, AutoTokenizer def evaluate_model(model_name): tokenizer = AutoTokenizer.from_pretrained(model_name) model = AutoModelForCausalLM.from_pretrained(model_name) input_text = "Evaluate this math problem:" inputs = tokenizer(input_text, return_tensors="pt") with torch.no_grad(): outputs = model.generate(**inputs, max_length=50) result = tokenizer.decode(outputs[0], skip_special_tokens=True) print(f"Result from {model_name}: ", result) evaluate_model('DeepSeek-R1-Distill-Qwen-14B') evaluate_model('DeepSeek-R1-Distill-Qwen-32B') ```
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

CSDN资讯

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值