Qwen3 发布,第一时间详解:性能、突破、训练方法、版本迭代...

今天凌晨,Qwen3发布

img

介于 DeepSeek 和 OpenAI 暂无动静,Qwen 算是把头条保住了,恭喜~

本文量大管饱、一次满足:发布内容实际体验训练细节,和 Qwen 发展回顾

发布内容

本次发布,包含 MoE 和 Dense 两种架构:
MoE:有 30B(3B激活)和 235B(22B激活)两种。
Dense:包含 0.6B、1.7B、4B、8B、14B 和 32B 这六款

本次发布的旗舰模型是 Qwen3-235B-A22B,后缀 235B 指的是模型大小 235B,A22B 指的是激活参数 22B。

在代码、数学、通用能力等基准测试中,这个 235B 的 Qwen3,水平超过 671B 的 DeepSeek R1

imgQwen3 vs DeepSeek-R1、o1、o3-mini、Grok-3 和 Gemini-2.5-Pro。

对于小一点的 MoE 模型:Qwen3-30B-A3B****超过 DeepSeek V3/GPT-4o

imgQwen3-4B 这样的小模型,也能匹敌 Qwen2.5-72B-Instruct

「思考模式」的无缝切换

在我看来,在功能层面,Qwen3 最显著的更新,是引入了「思考模式/非思考模式」的无缝切换。

思考模式的输出方式,类似 DeepSeek R1,模型会逐步推理,经过深思熟虑后给出最终答案。这种方法非常适合需要深入思考的复杂问题。

非思考模式则更类似 DeepSeek V3,提供快速的即时响应,适用于那些简单问题。

通过这种方式,用户能够根据具体需求,来控制模型的“思考”的程度,做到效果、成本、时间上的平衡。

img在不同思考深度下,模型的得分情况

掌握多种语言

Qwen2 支持 29 种语言

img中英文 + 27 种其他语言

Qwen3 支持了 119 个语种和方言

imgimgQwen3 支持的语种和方言

更强的 Agent 能力

本次 Qwen3 的更新,还体现在了 Agent 和 代码能力,同时也加强了对 MCP 的支持。

值得一提的是,Qwen 有一个配套的 Qwen-Agent 项目,可以方便地使用 API 进行工具调用,或结合现有的工具链进行扩展

Qwen3,对 MCP 有了更好的支持

实际体验

接下来用两个个例子,直观的展示本次 Qwen3 的能力变化

当然了,你也可以访问 Qwen 的网站,来直接体验
https://chat.qwen.ai/

长/短思考

img对于是否思考,你可以开启/关闭,以及设定的长度

img也可以让他讲讲人生道理

代码能力

所谓原汤化原食,让他给本文做个可视化,美感还是在线的

img让英雄查英雄,让 Qwen3 画 Qwen3

训练细节

接下来,让我们看看这个模型是怎么训出来的,过程上包括预训练后训练

预训练

先做一个基础的了解:

Qwen2.5 的训练数据,是在 18 万亿 token

Qwen3 的训练数据翻倍:约 36 万亿个 token,涵盖了 119 种语言和方言。

这些数据,一方面是来自于互联网信息的收集,一方面则是通过 Qwen2.5-VL 来从各 PDF 中来提取内容,再通过 Qwen2.5 改进质量。为了补充数学和编程领域的训练数据,Qwen2.5-Math 和 Qwen2.5-Coder 被用来生成合成数据

在预训练中,有三个阶段:

第一阶段,模型在30万亿tokens的数据上预训练,使用4K的上下文长度,这一阶段主要是帮助模型建立基本的语言技能和常识理解。

第二阶段,增强了STEM领域(科学、技术、工程、数学)和编程任务的训练,增加了5万亿tokens的数据量,进一步提升模型的推理能力。

第三阶段,通过加入高质量的长文本数据,扩展了上下文长度到32K,让Qwen3能够处理更长的输入,例如长篇文章或复杂的对话。

img训练出来,大概就是这么个效果

通过这些步骤,Qwen3的Dense基础模型在性能上达到了Qwen2.5更大模型的水平。例如,Qwen3-1.7B、4B、8B、14B、32B等版本的表现,和Qwen2.5的3B、7B、14B、32B、72B相当。而Qwen3的MoE模型,则只用了10%的激活参数,便能提供同样的推理能力,极大地节省了计算资源。

后训练

Qwen3的后训练是让模型实现“逐步推理”和“快速响应”的关键。团队通过四个阶段的优化,使得Qwen3不仅在复杂任务中有出色表现,在简单任务中也能快速给出答案。

第一阶段:长链推理冷启动:这一步通过微调多样化的推理数据,让模型具备了处理复杂任务的基本能力,包括数学、编程和逻辑推理等任务。

第二阶段:强化学习(RL):第二阶段利用强化学习进一步提升模型的推理能力,让模型能够在面对复杂任务时更加高效地寻找最佳答案。

第三阶段:思考模式和非思考模式融合:这一创新允许模型在面对不同任务时,灵活切换“思考模式”和“非思考模式”。思考模式下,模型逐步推理,适合复杂问题;而非思考模式下,模型则能快速作出反应,适合日常对话和简单问题。

第四阶段:通用任务强化学习:最后阶段,通过对20多个常见任务的强化学习微调,确保了Qwen3能够在不同应用场景下灵活应对,包括指令跟随、格式化输出和智能代理能力等。

img流程化成图,大概是这样

通过这一系列后训练,使得 Qwen3 掌握了思考模式,以及更好的工具调用能力。

Qwen 发展历史回顾

阿里最早推出的AI,叫做通义千问 ,最早出现在 2023年4月

img在那时,叫做「通义千问大模型」

那时,它还是阿里云的闭源模型,定位类似 ChatGPT,为企业客户提供服务,并不开放源码。

2023年8月初,Qwen 开源

img首个开源的 Qwen 模型

23年8月,阿里开源了两个新模型,Qwen-7BQwen-7B-Chat,在 ModelScope 和 Hugging Face 同时上线,以 Apache 2.0 的方式开源,Tech Report 也一并放出。

这一次,也是“Qwen”这一名称首次被启用,主要面向开源社区,追求开源可用性、轻量部署、广泛适配;

2023年9月底,Qwen-14B 发布

img紧接着,Qwen-14B 开源

相比 Qwen-7B,Qwen-14B 训练量更大,中文能力、代码生成、长文本推理都有明显提升

同期,阿里开源了 qwen.cpp、Qwen-Agent,工具链和应用框架开始成型。

那段时间,Qwen-7B 的训练也做了补强,tokens 从 2.2T 加到了 2.4T,上下文长度扩展到了 8K。

2023年11月底,Qwen-72B 上线

这是一版旗舰规模的模型,参数量拉到 720亿,预训练数据达到了 3万亿 tokens。

这个版本的 Qwen,原生支持 32K 上下文,在中文推理、复杂数学、多轮对话上的表现明显更稳了。

小型号也同步补了:Qwen-1.8B,面对边缘侧和轻量场景进行适配。

一波下来,Qwen把从1B到72B的参数区间基本打通了。

2024年春节期间,Qwen1.5

img去年春节的时候,Qwen1.5 亮相

大过年的,Qwen1.5 发布,在基础上做了深度优化,主要是底层结构调整、训练对齐增强。

同一阶段,还放出了第一版 MoE 架构的 Qwen1.5-MoE-A2.7B,推理成本压下来了,但推理链条拉得更长。

24年6月初,Qwen2

imgQwen2,一个颇具影响力的版本

Qwen2 算是换了新的底盘: 预训练数据量大幅扩张,推理能力、代码生成、长文本处理全部提升。

首批放出了 7B、32B、72B 三个尺寸,全覆盖了中大型场景。

2024年9月中,Qwen2.5 接棒

img这里是一些描述

新加了3B、14B、32B三个尺寸,适配更多硬件资源。

同步发了 MoE版,优化了推理稀疏度,同时放出了 Qwen2.5-Omni,一个能统一文本、图像、音频、视频处理的多模态模型。

那时候,Qwen2.5-7B 和 Omni-7B 在 Hugging Face 开源榜单上连续多周霸榜。

2025年4月底,Qwen3 到来

img今天,Qwen3 开源

这一次,Qwen3 系列从 Dense 和 MoE 两条线同步推进,从 0.6B 覆盖到了 235B。

训练过程中,第一次引入了 渐进式长文本预训练长文本后训练,超长文本处理做了系统级的优化。

推理任务上,模型内部支持了 思考模式 / 非思考模式 的无缝切换,单个模型内可以根据复杂度自动适配推理链路。

同时的,这个版本的模型,对外部工具的调用能力得到加强,为接下来的 Agent 大战做足准备。

最后

从2023年4月,通义千问首次亮相,到2025年4月,Qwen3全面发布,短短两年,三代更新,阿里一步步把自己的大模型打磨到了世界顶级水准

从最初的闭源探索,到如今 Dense、MoE 双线并进、思考模式无缝切换、超长文本系统优化……每个节点,都是硬仗

那么,如何系统的去学习大模型LLM?

作为一名从业五年的资深大模型算法工程师,我经常会收到一些评论和私信,我是小白,学习大模型该从哪里入手呢?我自学没有方向怎么办?这个地方我不会啊。如果你也有类似的经历,一定要继续看下去!这些问题啊,也不是三言两语啊就能讲明白的。

所以我综合了大模型的所有知识点,给大家带来一套全网最全最细的大模型零基础教程。在做这套教程之前呢,我就曾放空大脑,以一个大模型小白的角度去重新解析它,采用基础知识和实战项目相结合的教学方式,历时3个月,终于完成了这样的课程,让你真正体会到什么是每一秒都在疯狂输出知识点。

由于篇幅有限,⚡️ 朋友们如果有需要全套 《2025全新制作的大模型全套资料》,扫码获取~
在这里插入图片描述

👉大模型学习指南+路线汇总👈

我们这套大模型资料呢,会从基础篇、进阶篇和项目实战篇等三大方面来讲解。
在这里插入图片描述
在这里插入图片描述

👉①.基础篇👈

基础篇里面包括了Python快速入门、AI开发环境搭建及提示词工程,带你学习大模型核心原理、prompt使用技巧、Transformer架构和预训练、SFT、RLHF等一些基础概念,用最易懂的方式带你入门大模型。
在这里插入图片描述

👉②.进阶篇👈

接下来是进阶篇,你将掌握RAG、Agent、Langchain、大模型微调和私有化部署,学习如何构建外挂知识库并和自己的企业相结合,学习如何使用langchain框架提高开发效率和代码质量、学习如何选择合适的基座模型并进行数据集的收集预处理以及具体的模型微调等等。
在这里插入图片描述

👉③.实战篇👈

实战篇会手把手带着大家练习企业级的落地项目(已脱敏),比如RAG医疗问答系统、Agent智能电商客服系统、数字人项目实战、教育行业智能助教等等,从而帮助大家更好的应对大模型时代的挑战。
在这里插入图片描述

👉④.福利篇👈

最后呢,会给大家一个小福利,课程视频中的所有素材,有搭建AI开发环境资料包,还有学习计划表,几十上百G素材、电子书和课件等等,只要你能想到的素材,我这里几乎都有。我已经全部上传到CSDN,朋友们如果需要可以微信扫描下方CSDN官方认证二维码免费领取【保证100%免费
在这里插入图片描述
相信我,这套大模型系统教程将会是全网最齐全 最易懂的小白专用课!!

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值