大模型疯狂12月,卷出五个关键趋势

如果对比去年同期,你会发现今年12月是大模型行业的一个热闹峰值。

从11月中旬开始,OpenAI、微软、谷歌、字节跳动、百度和智谱等科技公司都召开了与大模型相关的发布会,推出了一系列新模型、新应用和新产品,其中OpenAI的12天连续直播更是开启了科技公司发布会的新流行。

热闹之下,比起去年技术层和竞争层的种种不确定性,当下模型厂商们的心态和预期好很多。一方面,在技术侧,一场推理AI竞赛已经开打;另一方面,应用层包括AI Agent、搜索等方向也已经明确。

我们整理了12月大模型行业里的五个趋势,记录这个疯狂月份里的兴奋和失落。

随着OpenAI相继发布o1和o3模型,一场推理竞赛正在模型厂商间展开。

据OpenAI发布的o3系列时给出的评测数据,在数学、编码、博士级科学问题等复杂问题上的表现,o3均展现出了强大的实力,例如在陶哲轩等60余位全球数学家共同推出的最强数学基准的EpochAI Frontier Math中,o3 创下新纪录,准确率高达25.2%,而其他模型都没有超过2.0%。

而在OpenAI没放出o3前,国内外科技公司的目标无疑是追赶o1,谷歌此前发布全新测试模型Gemini 2.0 Flash Thinking。

今年11月,月之暗面Kimi的新一代数学推理模型k0-math、DeepSeek的推理模型DeepSeek-R1-Lite预览版、阿里云通义的QwQ-32B-Preview也相继发布,在一些数学和编码评估表现中,它们的分数比o1还要高。

但一个问题是,目前尚不清楚o3是否会为普通用户带来很大帮助,从模型能力来看更适合推编码、数学和科学领域的研究人员,除此以外,推理模型也很昂贵。在Keras之父François Chollet发起的ARC-AGI基准测试显示,尽管o3在高计算模式下得分率为 87.5%,但研究人员在该模式下每个任务花费达到数美元,任务成本很高。

ARC-AGI测试标准 图源:X@arcprize

但成本也只是一个相对的概念。近期,清华NLP实验室刘知远教授团队提出了大模型的密度定律(densing law),该定律表明,大约每过3.3个月(100天),就能用参数量减半的模型达到当前最先进模型的性能水平,这意味未来推理成本还会快速降低。

但至少从技术端来看,至少OpenAI再度验证了Scaling Law没有消失,只不过是从预训练端转向了推理端,通过强化学习和更多的思考时间,提升模型的复杂推理能力,这条路是可行的。

对国内外基础模型厂商而言,它们需要追赶的新目标又出现了。

继5月、9月后的两轮大模型「价格战」后,OpenAI和火山引擎(字节跳动旗下云厂商)又掀开了第三轮「价格战」。

在OpenAI第九天的发布会上,针对GPT-4o音频模型,4o音频价格降低了 60%,降至输入40美元/百万tokens、输出80美元/百万tokens,文本价格为输入2.5美元/百万tokens、输出10美元/百万tokens。

OpenAI 12天直播 图源:官网

为了讨好开发者,OpenAI还把价格战打到了更有性价比的小模型GPT-4o mini上,音频费用是4o的四分之一。“我们听到了开发者关于成本的反馈,我们正在降低成本”。OpenAI开发者平台负责人Olivier Godement在直播中这样说。

另一边的火山引擎则是把「价格战」带到了视频模型上,其发布的豆包视觉理解模型输入价格为0.003元/每千tokens,比行业平均价格降低85%,火山引擎称将视觉理解模型带入了「厘时代」。

「厘时代」的说法并不陌生,今年5月火山引擎就宣布豆包主力模型将推理输入价格降至「厘时代」,打响大模型推理算力价格战,此后阿里云、百度智能云和腾讯云均迅速跟进,大模型推理算力价格下降了90%以上。

降价并不是国内模型厂商的独有特色,OpenAI也曾多次降价。但区别于国外厂商,国内大模型玩家的特点是:降价幅度更狠,且多为云厂商主导。

降价的原因主要有三:首先,以价换量,以价格带动推理算力消耗量增长,这也是为什么降价主要集中在云厂商的原因。

火山引擎方面,5月豆包通用模型的日均tokens使用量为1200亿,截至12月中旬,日均tokens使用量已超过4万亿,较七个月前首次发布时增长了33倍。百度5月日均Token消耗量是2500亿,截至11月初,百度文心大模型的日均处理Tokens文本数超过1.7万亿,不到半年增长了6.8倍。

其次,随着底层大模型成本、价格的降低,吸引开发者,加速AI进入外部企业,抢占应用生态。

零一万物创始人李开复在近期的一场采访中对比去年和今年的模型价格,这样说:“一年半的时间内,价格差了500倍,同时模型能力还有很大程度的提升。今天如果你还觉得贵,明年99%的概率就不贵了,再过一年可能不但不贵,而且能够支撑你做想要的应用。”

**最后,技术本身的优化也带来降本的空间。**谭待提到,降价是算法、软件、工程和硬件结合的结果,例如模型结构的优化,在工程手段上,针对不同客户场景集中规模化处理模型调用任务以及采用多种工程化手段,还有通过以异构资源池化的解决方案,提升芯片利用率等。

谭待谈到驱动两次降价的两个内部决策因素,提到两个核心因素,一方面会了解开发者、企业在使用过程中对成本痛点,价格降到多少,他们就能用起来,另一方面,火山引擎也在通过技术优化能把成本打到多低:“这两个值的中间段就是火山引擎可以定下的价格”。

据华泰证券此前预测,降价或还会蔓延,且已呈现出向主力模型降价的趋势。但降价是面子,模型能力才是里子,模型厂商需要回答的核心问题有两个:一是以价换量是否会影响利润表现(国内云厂商这些年均强调利润),二是模型效果是否能真正让客户买单,因为一切竞争的原点都还会回归模型的推理能力上。

计算成本的下降和基础模型选项的增加,让大模型应用层进入了一个飞速发展的时期,风险投资公司Lerer Hippeau管理合伙人Ben Lerer甚至这样说:

“如果你是一家初创公司,你可以选择当下流行的方案,不仅仅是做ChatGPT包装器、Claude包装器、Gemini包装器,或者随便什么,你可以将所有这些包装器组合起来,以优化功能、结果和这些结果的成本。”

「套壳与否」已经不再成为市场关注的重点,国外应用层玩家的「通用大模型套垂直小模型」的「鸡尾酒打法」也已复制到中国。

以国内AI玩具厂商跃然创新为例,创始人李勇就提到,在通用大模型上和MiniMax、豆包、智谱均有合作,“各家效果都挺好,儿童场景也够用”,现阶段使用MiniMax比较多是因为“给了跃然创新早期用户很多免费tokens”。

比起外界对「何时出现杀手级应用」的追问,各家厂商有自己的判断,此前字节管理层判断AI对话类产品可能只是AI产品的「中间态」,而百度创始人李彦宏则对外反复谈到,Agent是他最看好的AI应用发展方向。

整个12月,大模型玩家们围绕应用层的探索形成了「2+X」的确定性方向,其中「2」指的是AI Agent(智能代理)和AI搜索,而「X」则是包括AI玩具、AI耳机、AI眼镜等诸多AI软/硬件产品。

在AI搜索上,姗姗来迟的OpenAI终于在12天直播中宣布在ChatGPT新增了搜索功能,而据外媒报道,谷歌在推出AI Overviews后,近期也在考虑在Chrome浏览器中增加「AI模式」选项。而在不久前,AI搜索领域的巨头Perplexity AI也完成了新一轮5亿美元的融资,估值已升至90亿美元。

搜索这块「旧蛋糕」一直是大模型应用的必争之地,如今战火更盛的原因一是大模型推理技术能力的提升,二是对商业化的迫切需求让玩家们加大了对搜索这一「离钱更近」场景的争夺。

而与AI搜索关系「暧昧」的AI Agent也在12月成为最火的应用落地方向。

Anthropic推出的Computer Use功能和智谱近期发布的AutoGLM都展示了端侧Agent的交互性、自动化和主动性等特点,国内外科技大厂也几乎都有自己的 Agent平台。

在科技企业的各种演示中,AI Agent似乎已经能融入用户的工作和生活,不仅在手机端能执行预定酒店、点外卖等指令,还可以成为用户的工作助理,智谱AI CEO张鹏将AI Agent比作大模型通用操作系统LLM-OS的雏形,它的潜力在于大模型公司可以以此搭建自己的生态圈,在手机、PC等端侧找到落地的入口。

“(AI Agent)实现大模型的互联互通,理论是没有边界的”。张鹏表示。

但也请对科技公司的理想保持冷静。现阶段,他们尚未解决的问题还有很多。比如商业模式,在C端,智能体目前尚没有形成新的商业模式,依旧靠高流量带来的付费转化,百度、字节等大厂的智能体还需要靠自己已有的流量阵地完成分发。

而在B端,红杉在近期一份报道中指出,随着代理(Agent)应用很快变得更加复杂,对于任何给定的领域,收集现实世界的数据、编码领域和应用特定的认知架构也将成为更多玩家摆在眼前的挑战。

当然,在「X」上也涌现出更多的尝试。除了我们已熟悉的AI手机、AI PC外,红极一时的AI Pin不见了,新的风口属于AI玩具和AI耳机。

字节的显眼包,已经开卖的AI毛绒玩具,究竟是风口,还是刚需,销量和复购数字会给出答案。

一句话总结,在强调「应用优先」的共识里,从能用到好用,还有许多鸿沟。

热闹的年终发布月里,久违的大模型融资热又来了。

上个月底,在OpenAI和Anthropic完成新一笔融资后,据我们不完全统计,12月初,又一批国内外的明星AI企业们拿到了「过冬钱」。

国内大模型企业中,面壁智能、智谱AI、阶跃星辰完成新一轮融资,至此也将国内基座大模型的估值抬升至200亿元门槛,随着单笔融资的提升,我们发现接住国内大模型公司已经变成了老股东、国资和科技大厂。

国外企业中,模型层、应用层和几基座层均有新融资出现,Perplexity AI、X.AI、Databricks、Cursor等公司都拿到了新一笔钱。

拿到钱该如何分配,是这些公司下一步的重点,加码技术研发和基础设施建设还是主线。X.AI在本次融资公告中就提到,主要用途预计是采购另外10万块英伟达 GPU,以进一步扩充其算力规模。

融资的牌桌上,有富人,就有穷人。风险机构Northzone合伙人Molly Alter预测:“「最诱人」的交易将继续以极高的估值进行,但对于其他公司而言,则需要展示非常具体的指标才能获得高估值。「富人」和「穷人」将出现巨大的分化。”

分化的结果将是,我们会看见,寻求退场或倒闭的初创公司会增加,大型科技公司和头部企业的整合速度也会加快。

如Perplexity AI在本月收购了一家名为Carbon的小型初创公司,Cursor背后的开发商Anysphere也将另一款AI编码助手Supermaven收入囊中。

「The information」此前曾提出,衡量那些短期内不太可能被收购的公司主要有以下几点因素:收入和利润、增长、员工人数、筹集的总资金以及公司是否从可能成为收购者的战略投资者那里筹集了大量资金。

人、钱、事,是所有公司的三要素,而在大模型行业,人又是最关键的因素。

围绕大模型组织的整合、人才的回流和出走,成了年末的焦点话题。

此前我们在《大模型狂飙两年后,“六小龙”开始做减法》曾报道过,大模型「六小龙」中已经不断有人员离开,他们离职的方向包括但不限于——回流大厂、再创业。

而再创业的方向基本也和AI相关,零一万物前联潘欣在近期以闪极AI合伙人身份投身AI眼镜浪潮,月之暗面前产品负责人王冠的新创业项目ONE2X也在11月完成天使轮融资。

**而「人」也是过去一年里OpenAI头疼的问题。**不久前,「GPT之父」Alec RadfordAlec Radford也宣布从OpenAI离开,宣布将开启自己独立研究生涯。搜索负责人Shivakumar Venkataraman也在加入公司七个月后离职,他领导了OpenAI企业客户的搜索和人工智能的开发。

类似的整合也出现在大厂内部,它们需要以更灵活的姿态应对竞争。此前据《智能涌现》报道,阿里旗下的AI应用「通义」也从阿里云分拆,并入阿里智能信息事业群。

可以肯定的是,随着竞争激烈,组织和人才整合和分化不会停止。

时间拨回去年12月,在经历了内斗动荡后,重回管理层的Sam Altman或许不会想到,此刻的OpenAI已经历了一轮人才的大换血。

一年前,人们讨论的话题是创业公司和大厂间的竞争,技术上聚焦长文本窗口,流行大模型是一把手工程,一年过去,这些话题还在讨论,但有些问题已经随技术更迭成为共识。

即便人们对AI依旧怀疑,但它确实已走入人们的生活,这个趋势将无法阻挡,正如Sam Altman在12天直播发布会后所说的那样:

“You can just do things。”

今天只要你给我的文章点赞,我私藏的大模型学习资料一样免费共享给你们,来看看有哪些东西。

如何学习大模型 AI ?

由于新岗位的生产效率,要优于被取代岗位的生产效率,所以实际上整个社会的生产效率是提升的。

但是具体到个人,只能说是:

“最先掌握AI的人,将会比较晚掌握AI的人有竞争优势”。

我意识到有很多经验和知识值得分享给大家,也可以通过我们的能力和经验解答大家在人工智能学习中的很多困惑,所以在工作繁忙的情况下还是坚持各种整理和分享。但苦于知识传播途径有限,很多互联网行业朋友无法获得正确的资料得到学习提升,故此将并将重要的AI大模型资料包括AI大模型入门学习思维导图、精品AI大模型学习书籍手册、视频教程、实战学习等录播视频免费分享出来。

这份完整版的大模型 AI 学习资料已经上传CSDN,朋友们如果需要可以微信扫描下方CSDN官方认证二维码免费领取【保证100%免费

img

一、全套AGI大模型学习路线

AI大模型时代的学习之旅:从基础到前沿,掌握人工智能的核心技能!

img

二、640套AI大模型报告合集

这套包含640份报告的合集,涵盖了AI大模型的理论研究、技术实现、行业应用等多个方面。无论您是科研人员、工程师,还是对AI大模型感兴趣的爱好者,这套报告合集都将为您提供宝贵的信息和启示。

img

三、AI大模型经典PDF籍

随着人工智能技术的飞速发展,AI大模型已经成为了当今科技领域的一大热点。这些大型预训练模型,如GPT-3、BERT、XLNet等,以其强大的语言理解和生成能力,正在改变我们对人工智能的认识。 那以下这些PDF籍就是非常不错的学习资源。

img

四、AI大模型商业化落地方案

img

作为普通人,入局大模型时代需要持续学习和实践,不断提高自己的技能和认知水平,同时也需要有责任感和伦理意识,为人工智能的健康发展贡献力量。

在这里插入图片描述

第一阶段(10天):初阶应用

该阶段让大家对大模型 AI有一个最前沿的认识,对大模型 AI 的理解超过 95% 的人,可以在相关讨论时发表高级、不跟风、又接地气的见解,别人只会和 AI 聊天,而你能调教 AI,并能用代码将大模型和业务衔接。

  • 大模型 AI 能干什么?
  • 大模型是怎样获得「智能」的?
  • 用好 AI 的核心心法
  • 大模型应用业务架构
  • 大模型应用技术架构
  • 代码示例:向 GPT-3.5 灌入新知识
  • 提示工程的意义和核心思想
  • Prompt 典型构成
  • 指令调优方法论
  • 思维链和思维树
  • Prompt 攻击和防范

第二阶段(30天):高阶应用

该阶段我们正式进入大模型 AI 进阶实战学习,学会构造私有知识库,扩展 AI 的能力。快速开发一个完整的基于 agent 对话机器人。掌握功能最强的大模型开发框架,抓住最新的技术进展,适合 Python 和 JavaScript 程序员。

  • 为什么要做 RAG
  • 搭建一个简单的 ChatPDF
  • 检索的基础概念
  • 什么是向量表示(Embeddings)
  • 向量数据库与向量检索
  • 基于向量检索的 RAG
  • 搭建 RAG 系统的扩展知识
  • 混合检索与 RAG-Fusion 简介
  • 向量模型本地部署

第三阶段(30天):模型训练

恭喜你,如果学到这里,你基本可以找到一份大模型 AI相关的工作,自己也能训练 GPT 了!通过微调,训练自己的垂直大模型,能独立训练开源多模态大模型,掌握更多技术方案。

到此为止,大概2个月的时间。你已经成为了一名“AI小子”。那么你还想往下探索吗?

  • 为什么要做 RAG
  • 什么是模型
  • 什么是模型训练
  • 求解器 & 损失函数简介
  • 小实验2:手写一个简单的神经网络并训练它
  • 什么是训练/预训练/微调/轻量化微调
  • Transformer结构简介
  • 轻量化微调
  • 实验数据集的构建

第四阶段(20天):商业闭环

对全球大模型从性能、吞吐量、成本等方面有一定的认知,可以在云端和本地等多种环境下部署大模型,找到适合自己的项目/创业方向,做一名被 AI 武装的产品经理。

  • 硬件选型
  • 带你了解全球大模型
  • 使用国产大模型服务
  • 搭建 OpenAI 代理
  • 热身:基于阿里云 PAI 部署 Stable Diffusion
  • 在本地计算机运行大模型
  • 大模型的私有化部署
  • 基于 vLLM 部署大模型
  • 案例:如何优雅地在阿里云私有部署开源大模型
  • 部署一套开源 LLM 项目
  • 内容安全
  • 互联网信息服务算法备案

学习是一个过程,只要学习就会有挑战。天道酬勤,你越努力,就会成为越优秀的自己。

如果你能在15天内完成所有的任务,那你堪称天才。然而,如果你能完成 60-70% 的内容,你就已经开始具备成为一名大模型 AI 的正确特征了。

这份完整版的大模型 AI 学习资料已经上传CSDN,朋友们如果需要可以微信扫描下方CSDN官方认证二维码免费领取【保证100%免费

img

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值