——一场AI界的“深夜炸场”与全球语言狂欢
阿里又双叒搞事情了!这次的主角是通义千问家族的新成员——Qwen3。
4月29日凌晨,阿里云突然甩出一颗“技术核弹”:开源8款模型,支持119种语言,性能直接对标OpenAI和DeepSeek的顶流选手。
“快思考”还是“慢思考”?AI也能玩“人格分裂”
Qwen3最让人眼前一亮的,是它的“混合推理”模式。
简单说,这模型能像人类一样切换“快脑”和“慢脑”:遇到数学题就进入“哲学家模式”,一步步推导答案;碰上简单问题则秒变“社牛”,瞬间给出回应。
这种设计可不是为了炫技,而是实打实的算力杀手锏。
比如它的旗舰模型Qwen3-235B-A22B,仅需4张H20显卡就能跑满血,显存占用只有同类模型的1/3。
119种语言+方言,AI版“通天塔”来了!
粤语用户狂喜!Qwen3不仅能听懂“雷猴”,还支持从简体中文到南非祖鲁语的全球语言矩阵。
这背后是36万亿token的预训练数据,相当于把Qwen2.5的语料库直接翻倍。
为了攒这些数据,阿里甚至动用了自家AI当“数据矿工”。
比如用Qwen2.5-VL从PDF里挖文本,靠Qwen2.5-Math生成数学题,活生生造了个AI数据工厂。
小身材大能量:4B模型吊打前代72B?
这次开源阵容堪称“全家桶”,从0.6B到235B应有尽有。
最离谱的是Qwen3-4B这种“小个子”,性能居然能打平前代的72B模型,活像AI界的“天山童姥”。
MoE架构(混合专家模型)是隐藏大招。
比如Qwen3-30B-A3B,激活参数只有竞品的10%,表现反而更猛——这相当于让10个专家轮流答题,既省电又高效。
开源社区炸锅:网友惊呼“魔法降临”
GitHub上2小时狂揽1.69万星,Hugging Face秒变大型真香现场。
有开发者实测后直呼:“看着屏幕上蹦出的代码,我以为在看霍格沃茨的魔法课!”
阿里还贴心地准备了“保姆级”部署方案。
从云端API到本地工具链(Ollama、LMStudio),就差把“拿来吧你”写在代码里了。
AGI竞赛再添猛将,但故事才刚开始
虽然Qwen3已经在数学、编程等测试中碾压一众对手,阿里的野心远不止于此。
技术负责人放话:下一步要训练AI Agent玩转“长线推理”,朝着通用人工智能(AGI)狂奔。