DeepSeek测算:算力、性能、成本等

7e4ec584a18686ccaa3f53d48d66602c.jpeg

来源:财经大瓜田

SemiAnalysis新出的一篇分析报告,对于DeepSeek的分析,包括中国在成本、真实训练成本、封闭模型利润率影响方面的领先地位 ——H100 价格飙升、补贴推理定价、出口管制、多头潜在注意力机制。

图片

DeepSeek风靡全球

过去一周,DeepSeek成为全球范围内热议的唯一话题。目前,DeepSeek的日流量已经远超Claude、Perplexity,甚至Google的Gemini。

然而,对于AI行业的深度观察者来说,这并不是什么“新鲜”新闻。事实上,我们已经讨论DeepSeek有好几个月了。DeepSeek并不是一家公司突然崛起的故事,真正新鲜的,是它如今所引发的狂热关注。SemiAnalysis 早就指出,DeepSeek拥有极其优秀的人才团队,但长期以来,美国公众并未对此给予关注。而当世界终于开始注意到它时,却陷入了一种与现实不符的极端炒作。

值得注意的是,这一舆论叙事与上个月的情况形成了鲜明对比。上个月,有人宣称Scaling Laws被DeepSeek打破,我们曾对此做过澄清。而现在,新的论调是“算法改进速度太快”,这又被解读为对英伟达及其GPU产业的“坏消息”。

如今的观点认为,DeepSeek的模型如此高效,以至于算力不再是瓶颈,整个市场因此出现了严重的算力过剩。然而,这种说法过于夸大。“杰文斯悖论” 其实更接近事实——虽然提升计算效率可能会减少个体需求,但它也往往会创造更多的整体需求。DeepSeek的技术进展已经对市场产生了实际影响,比如英伟达H100和H200 GPU的价格走势。

DeepSeek与幻方量化

幻方量化 是一家中国的量化对冲基金,早在AI兴起之初便开始将其应用于交易算法。他们不仅深知AI在金融领域的潜力,更洞察到了Scaling)的重要性。因此,幻方一直在不断扩充自己的GPU供应。

早在2021年,在出口管制政策尚未出台之前,他们就已购买了10,000张英伟达A100 GPU芯片进行大规模实验,这一决策最终带来了巨大回报。随着AI技术的持续进步,幻方意识到是时候成立一家独立的AI实验室,以更专注的方式推动研究和发展。于是,DeepSeek于2023年5月正式成立,以进一步探索AI能力的极限。

DeepSeek的初期融资完全由幻方量化提供,原因很简单——当时市场对AI创业公司兴趣不大,尤其是缺乏清晰商业模式的企业更难吸引投资。因此,幻方量化选择自主投资,并与DeepSeek共享资源,包括计算基础设施和核心人才。

如今的DeepSeek,早已不是什么“副业”,尽管一些媒体仍然这样描述。根据我们的估算,即便考虑到美国出口管制因素,他们在GPU方面的投资已超过 5亿美元(约35亿元人民币)。

图片

GPU的情况

关于DeepSeek拥有的GPU资源,我们的分析显示,他们目前大约拥有50,000张英伟达Hopper架构的GPU芯片,但这并不意味着他们拥有50,000张英伟达高端H100 GPU芯片——这一点需要澄清。由于美国对华出口管制,英伟达专门为中国市场生产了一系列受限版本的GPU芯片,如H800、H20。目前,H20是中国AI公司唯一可以合法购买的英伟达高端GPU芯片。

需要注意的是,虽然英伟达H800的计算能力与英伟达H100相当,但其网络带宽较低,这可能会影响大规模分布式训练的效率。根据我们的估算,DeepSeek大致拥有:10,000张H800 GPU芯片、10,000张H100 GPU芯片以及大量H20 GPU芯片,因为英伟达在过去9个月内已经生产超过100万张供中国市场使用的GPU芯片,而DeepSeek正在不断采购英伟达H20。这些GPU被用于量化交易、推理、训练和前沿研究,并且地理上分布较为广泛,与幻方量化共享使用。

图片

我们估计,DeepSeek的总服务器资本支出(CapEx)约为13亿美元(约90亿元人民币),其中仅集群运营成本就高达7.15亿美元。与全球AI实验室和超大规模计算公司(Hyperscalers)类似,DeepSeek不仅拥有专用于训练的GPU,还必须为不同任务(如研究、实验、推理)预留算力资源。

相比之下,X.AI(马斯克的AI公司)非常特殊,因为它将所有GPU都集中在一个地点进行管理,而DeepSeek采用了更分散的方式。

DeepSeek人才战略——超高薪酬&自主研发

DeepSeek的人才来源完全来自中国本土,它不依赖求职者的学历背景,而是更加注重实际能力和探索精神。DeepSeek定期在北京大学、浙江大学等顶尖高校举办招聘活动,这些高校也是其主要人才来源。

与传统的科技公司不同,DeepSeek的职位并不固定,员工有很大的灵活性,甚至在招聘广告中就直接宣传:加入DeepSeek,你可以随意使用数万张GPU,没有限制。这一点对研究人员和工程师极具吸引力。

DeepSeek的薪资水平也远超中国其他科技公司。据称,他们为顶尖研究人员开出了超过130万美元(约合920万元人民币)的年薪,远高于国内其他AI公司,如Moonshot(月之暗面)等。目前,DeepSeek的团队规模约为150人,但扩张速度极快。

回顾历史,一个资金充足、专注度极高的初创公司,往往能够突破技术极限。DeepSeek不像Google那样存在繁琐的内部官僚体系,由于它的资金来源独立,不受外部投资人的影响,可以迅速推动创新。然而,与Google类似的是,DeepSeek大部分情况下依靠自建数据中心,而不是依赖第三方云计算提供商。这使他们能够在硬件和系统层面进行深度优化,并探索全新的架构和方法。

DeepSeek是当前全球最强的“开源权重”AI实验室

我们认为,DeepSeek已经成为当前全球最强的开源权重(Open Weights)AI实验室,甚至超过了Meta的Llama团队、Mistral等竞争对手。

DeepSeek的成功不仅仅依赖于技术突破,更得益于灵活的组织架构、自主的计算基础设施和极具竞争力的人才策略。它的崛起正在重塑全球AI行业的格局,成为“后ChatGPT时代”最值得关注的力量之一。

DeepSeek的成本与性能

本周,DeepSeek的超低训练成本和高效能引发了全球范围的热议,尤其是关于DeepSeek V3训练成本仅为600万美元左右的报道。然而,这种说法并不准确。这种计算方式相当于仅依据一项(且较大)材料成本就推测整个生产费用,而实际上,预训练成本只是总成本中的一个小部分。

训练成本的真实情况

我们认为,所谓的“600万美元训练成本”远远低于DeepSeek实际投入的金额。事实上,我们可以相当确定,DeepSeek自成立以来的硬件投资已超过5亿美元,这只是最基本的算力投入。除此之外,在模型研发过程中,还需要大量资金用于测试新架构、调整模型结构、开展消融实验(Ablation Study)等创新探索。DeepSeek的核心技术之一——多头潜在注意力(Multi-Head Latent Attention),就是经过数月的研发、庞大的团队工时和海量GPU计算资源投入才最终落地的。

论文中提到的600万美元成本,仅仅是预训练(pre-training)过程中所消耗的GPU计算成本,但模型的完整训练远远不止于此。真正的成本还包括:研究与开发(R&D)——测试各种新架构、优化模型设计;数据收集与清理——训练数据的获取、清理、标注和处理;人才成本——高薪聘请顶尖AI研究员和工程师;硬件总拥有成本(TCO)——服务器、电力、冷却系统、数据中心维护等。

作为对比,Anthropic训练Claude 3.5 Sonnet的成本就高达数千万美元,如果训练成本真的只有这么一点,那Anthropic就不需要从Google融资数十亿美元,更不需要从亚马逊融资上百亿美元了。因为他们不仅需要训练模型,还需要不断进行实验、优化架构、处理数据、支付员工薪资等等。

DeepSeek V3的性能——缩小差距

V3毫无疑问是一款令人印象深刻的模型,但我们需要明确一个关键问题——它的优势是相对于谁?许多人将V3与GPT-4o进行对比,并强调V3在某些方面已经超越了GPT-4o。这确实属实,但值得注意的是,GPT-4o发布于2024年5月,而AI技术的发展速度极快,以算法进步的速度来看,2024年5月就相当于“上一个时代”。换句话说,DeepSeek能够在较少算力的情况下实现与甚至超越GPT-4o的性能,并不令人意外。

AI的演进路径一直遵循相同的趋势:推理成本(Inference Cost)不断下降,计算效率持续提高;相同级别的AI能力,所需计算量大幅减少。

图片

一个典型的例子是,如今的轻量级模型已经可以在笔记本电脑上运行,其性能接近于当年的GPT-3,而GPT-3在训练和推理时需要超级计算机和多张GPU芯片支持。换句话说,算法改进使得更少的计算资源就能训练和推理出相同能力的模型,而这种趋势一再发生。

唯一的不同之处在于,这次取得突破的是中国的一家AI实验室,因此才引起了全球范围内的高度关注。但如果从技术角度来看,更小的模型变得更强大,这并不是新鲜事。

在过去的AI发展中,我们反复见证了一种模式:绝对计算支出不断增加,但计算效率提升更快,最终带来更强的AI能力。例如:算法进步的速度约为每年4倍,即每年达到相同能力所需的计算量减少到四分之一;Anthropic CEO Dario甚至认为,这一进步速度可能达到10倍。

图片

以GPT-3为例:过去,GPT-3级别的推理成本相比于刚推出时,已经下降了1200倍;GPT-4的训练成本下降趋势与GPT-3类似,尽管处于不同的时间曲线上;算法优化和工程改进,使得训练和推理的成本下降了10倍,同时模型能力也在大幅提升。

图片

所以,DeepSeek的特别之处在于:他们是首个实现如此极端成本效益的AI实验室;他们选择了“开源权重”(Open Weights)策略,但这并非首次,Mistral和Meta的Llama项目此前也做过类似的事情。然而,这一趋势不会止步于此。到2024年底,我们不应感到惊讶,如果AI训练成本进一步降低5倍,这完全符合历史趋势。

DeepSeek R1的性能是否能与OpenAI o1匹敌

另一方面,DeepSeek R1的表现已经达到了与o1相当的水平,而o1仅在2024年9月才发布。DeepSeek为何能如此迅速地迎头赶上?

答案在于推理(reasoning)代表了一种全新的AI范式,它的迭代速度更快,相比以往的范式,其计算成本更低,且有更多“低垂的果实”(即易于取得的技术进步)。在我们的扩展定律(Scaling Laws)报告中,我们已经指出,传统的AI模型训练主要依赖于预训练(pre-training),但这一范式成本越来越高,且难以获得稳定的性能提升。

而新的AI训练范式,即基于合成数据(synthetic data generation)和强化学习(RL)进行推理能力提升的后训练(post-training)方法,能够在较低成本下更快提升模型能力。这一新方法的门槛更低,优化方式更直接,这使得DeepSeek能够比以往更快地复现o1的方法。然而,随着AI实验室进一步探索如何在这一新范式下进行大规模扩展,未来不同AI模型之间的技术代差可能会逐渐拉大。

值得注意的是,R1的论文并未提及具体的计算量,这绝非偶然。要生成用于后训练(post-training)的合成数据,需要投入大量计算资源,而强化学习(RL)同样需要消耗巨量的算力。这并不是在质疑R1的实力——R1的确是一款优秀的模型,能够如此快速追赶全球最前沿的推理能力,已经足够令人印象深刻。更重要的是,DeepSeek在资源相对有限的情况下实现了这一突破,这使得它的成就更具意义。

图片

然而,R1在论文中所引用的一些基准测试(Benchmark)也可能存在误导。将R1与o1直接比较存在一定的困难,因为:R1只公布了它表现领先的基准测试,但未提及其落后的部分;虽然R1的推理能力与o1相当,但它在许多关键指标上并非绝对赢家,甚至在一些方面逊色于o1。

图片

此外,我们还没有提到o3。根据OpenAI最近公布的测试数据,o3的能力远超R1和o1。事实上,o3的性能增长几乎呈现垂直增长(benchmark scaling is vertical),这一趋势表明,虽然深度学习(deep learning)被认为遇到了瓶颈,但这个瓶颈的性质与人们之前想象的并不相同。

Google的推理模型是否已经赶上DeepSeek R1

尽管DeepSeek R1引发了全球范围内的狂热讨论,但与此同时,一家市值2.5万亿美元的公司——Google,早在一个月前就推出了一款推理模型(reasoning model),成本更低:Gemini Flash 2.0 Thinking。这款模型已经向外部开放使用,并且即使在API 访问方式下提供了更长的上下文窗口(context length),其运行成本仍然远低于R1。

根据已公布的基准测试(benchmarks),Flash 2.0 Thinking 在多个指标上优于 R1。但需要注意,基准测试并不能完全反映模型的综合能力——Google仅公布了三个基准测试,因此仍然存在数据不完整的问题。然而,我们仍然认为Google的模型在许多方面足以媲美DeepSeek R1,但它却没有获得与R1相匹配的市场热度。这可能有多个原因:Google的市场推广策略较差,其产品发布和用户体验并未达到预期;R1 是一个“出乎意料的中国突破”,而全球AI关注度已经聚焦在DeepSeek上。

图片

尽管如此,这些都无法否定DeepSeek的非凡成就。DeepSeek能够迅速超越像Meta这样的科技巨头,并率先推出推理模型,主要得益于:敏捷的团队管理,没有官僚体系的束缚;充足的资金支持,确保技术研发不会受到资金限制;清晰的技术愿景,专注于AI领域的关键突破。

DeepSeek的技术成就

DeepSeek成功找到了关键方法,实现了领先实验室尚未达成的创新。并且可以预见,DeepSeek的技术成果将迅速被西方AI研究机构模仿和采用。

训练方法的突破(Pre-training & Post-training)

1. 多Token预测(Multi-Token Prediction,MTP)

DeepSeek V3在训练过程中广泛采用了多Token预测(MTP),这一技术在业界尚属首次大规模应用。

传统的Transformer结构通常每次只预测一个Token,而MTP允许模型一次预测多个Token,大幅提升训练效率。在训练阶段使用MTP可以提升模型的收敛速度,而在推理阶段,这些额外的注意力机制可以被裁剪掉,从而降低推理成本。

2. FP8训练

DeepSeek在V3训练中使用了**FP8(8位浮点数)**来提升计算效率。尽管美国的顶级AI实验室早已采用FP8训练,但DeepSeek在V3规模上首次实现了FP8训练的全面优化,从而提升了计算资源的利用率。

3. 混合专家模型(MoE)

DeepSeek V3采用了混合专家模型(Mixture of Experts, MoE),这是一种新兴的AI训练架构:MoE由多个“专家子模型”组成,每个专家子模型专注于不同的任务。训练过程中,MoE面临的最大挑战是如何高效分配Token,即如何决定哪些Token应该被送到哪个子模型进行处理。DeepSeek通过设计高效的“门控网络”(gating network),实现了精准的Token分配,确保模型的性能不会受到影响。这种设计使得训练时只有部分模型参数需要更新,从而显著提高训练效率,并降低推理成本。

有观点认为,MoE的高效性可能会减少AI产业的整体投资,但Anthropic CEO Dario反驳称,MoE的经济效益反而会加速AI规模化进程,因为更高效的AI只会促使公司加大投入,以获得更强的AI能力。

4. 强化学习(Reinforcement Learning, RL)

R1在强化学习(RL)方面的进步主要体现在两个方面:格式化(Formatting) —— 确保输出结果逻辑清晰、一致;有用性与安全性(Helpfulness & Harmlessness)——确保模型生成的内容对用户有帮助,并避免产生有害信息。

推理能力的提升,主要是在**合成数据集(synthetic dataset)**上进行微调(fine-tuning)后出现的。这一过程与OpenAI在o1上的训练策略类似。不过值得注意的是,R1论文未提及具体的计算量,其背后的原因可能是:如果公布计算量,可能会暴露出DeepSeek真实的GPU资源储备远超外界想象。强化学习需要大量计算资源,尤其是在生成合成数据的过程中,这意味着DeepSeek的计算实力可能比他们对外宣传的要更强大。

5. 训练数据争议

DeepSeek在训练R1时,可能使用了来自OpenAI模型的输出数据。如果属实,这可能会在政策层面引发一系列连锁反应:AI训练数据的“蒸馏”(distillation)问题,即是否可以用其他AI模型的输出作为训练数据;未来可能会实施更严格的KYC(了解你的客户,Know Your Customer)机制,以防止AI公司利用其他公司的数据来训练自家模型。

此外,R1论文还展示了一项极具突破性的能力:通过“微调”(fine-tuning),可以将非推理(non-reasoning)模型转化为推理(reasoning)模型;R1的链式思维(CoT, Chain of Thought)输出数据对外开放,意味着任何人都可以用R1的数据集训练自己的推理模型,这将极大提升小型模型的推理能力。

多头潜在注意力(MLA)是降低推理成本的关键

MLA(Multi-head Latent Attention)是DeepSeek大幅降低推理成本的关键技术之一:MLA能够减少KV Cache需求约93.3%,相比标准Transformer结构,其推理效率更高;KV Cache是Transformer模型中的关键机制,用于存储上下文信息,减少重复计算。但随着上下文长度的增加,KV Cache也会急剧增长,从而导致推理开销飙升;通过MLA优化KV Cache机制,DeepSeek显著减少了推理过程中所需的硬件资源,从而降低了推理成本。

目前,DeepSeek提供的推理服务可能是以成本价运营的,以此抢占市场份额。然而,Google Gemini Flash 2.0 Thinking的推理成本仍然更低,并且谷歌显然不会以成本价提供这项服务。这意味着DeepSeek短期内可能并未盈利。

此外,DeepSeek还在推理端优化了英伟达H20 GPU的使用——H20具有比H100更高的内存和带宽容量,在推理效率上更具优势。DeepSeek还与华为建立了合作伙伴关系,但目前在华为Ascend计算平台上的进展仍然有限。

DeepSeek的低推理成本策略可能会影响整个AI行业的商业模式:目前DeepSeek可能在补贴推理价格,以获取市场份额;AI服务是否会像云计算一样,陷入低价竞争;DeepSeek的崛起,是否会促使中国加大AI领域的扶持力度;美国的出口管制是否会进一步收紧。

无论如何,DeepSeek的技术突破已经改变了全球AI竞争的格局,未来AI产业的发展仍将充满不确定性。

更广泛的利润影响

在利润率方面,有一个关键发现:R1 并非从技术层面削弱了 o1 的进展,而是以更低的价格实现了相当的能力。这在本质上是合理的,现在我们引入一个关于未来定价机制的框架。

提升能力能够带来更高的利润率。这与半导体制造行业的发展极为相似,台积电率先进入新节点(实现新能力)时,由于创造出了前所未有的产品,从而获得了显著的定价权。

其他落后的竞争对手(如三星、英特尔)为了在性价比上达到平衡,会以低于领先者的价格提供产品。对芯片制造商(在此类比为人工智能实验室)而言,幸运的是他们可以调整产能。如果在新模型上能够实现更高的性价比,他们就可以将产能转移到新模型的生产上。旧型号仍会得到支持,但供应量会减少。这与当前人工智能实验室的实际情况以及半导体制造行业的规律高度吻合。

能力的商品化与对更强能力的不懈追求

这或许就是能力竞争的未来走向。率先达到新的能力层级,将获得可观的定价溢价;而那些迅速跟上的参与者,只能获得微薄利润。处于能力层级下游的产品,如果能满足特定用例的需求,仍会继续存在。每一代能够追赶上领先能力的参与者将越来越少。

我们见证的是,R1 达到了领先的能力水平,却以零利润率定价。这种巨大的价格差异引发了一个问题:为什么 OpenAI 的产品如此昂贵?这是因为他们基于最前沿的技术定价,并享受着前沿技术带来的溢价。

我们认为,未来的发展将比领先的芯片制造动态更快。追逐最新的能力意味着持续的定价权(例如 ChatGPT Pro),而落后的能力则意味着更低的定价,此时利润主要来源于为令牌服务的基础设施。

鉴于我们正处于快速的技术周期中,为追求领先的能力,产品更新换代的速度也会加快。只要你能不断拓展能力,开发出创造价值的新功能,就理应获得定价权;否则,在开放模型市场中,你很快就会面临产品同质化的问题。

我们认为,在这种背景下,人们对当前发生的事情存在根本性的误解。我们所描述的情况类似于超高速发展的芯片制造行业,这是世界上资本密集度最高的行业。全球没有哪个行业在研发上的投入比芯片制造行业更多,但与之最相似的现实情况却被认为对支持模型公司的芯片产业不利。

将人工智能令牌与杰文斯悖论相比较,会发现二者有着深刻的历史相似性。起初,人们并不确定晶体管是否能够不断缩小尺寸;而当这一趋势明确后,整个行业便致力于将互补金属氧化物半导体(CMOS)技术的尺寸缩小到极致,并在此基础上构建出各种重要功能。我们目前正处于整合多种思维链(CoT)模型和能力的初期阶段,就像最初对晶体管进行规模化发展一样。虽然从技术进步的角度来看,这可能是一个动荡时期,但对英伟达来说却是有利的。

DeepSeek补贴推理利润率

实际情况是,市场在寻找一个理由,而他们选择了这一点。如果DeepSeek愿意接受零利润率甚至负利润率,那么他们的产品价格可能会如此之低,但显然,提供前沿令牌服务的价格弹性点要高得多。考虑到DeepSeek正在进行新一轮融资,他们有动机这样做。

DeepSeek在推理领域的关键切入点上,打破了 OpenAI 的领先利润率。这种领先地位会持续下去吗?我们认为不会 —— 毕竟一个开放实验室展示出了封闭实验室的能力。尽管这一点至关重要,但我们仍需注意,DeepSeek是一个快速追随者。

图片

我们确实认为,一个更强大的开放实验室(DeepSeek目前是其中的佼佼者)对新兴云服务提供商和服务供应商来说是非常有利的。无论是开放模型还是封闭模型,计算资源的集中化仍然很重要,但如果基于计算资源构建的上层服务免费提供产品,那么计算资源的价值就有可能提升。更多的资金会流向计算资源领域,而非封闭模型供应商,这意味着支出更多地流向了硬件领域。软件企业也能从中受益匪浅。

H100 价格飙升 —— 杰文斯悖论的体现

我们已经看到了这一理论的早期迹象。自 V3 和 R1 发布以来,AWS 多个地区的 H100 GPU 价格上涨,H200 也更难获取。

图片

V3 发布后,H100 价格大幅上涨,因为 GPU 开始以更高的费率实现货币化。更低的成本实现更强的智能意味着更多的需求。这与前几个月 H100 现货价格的低迷形成了鲜明对比。

出口管制的影响、DeepSeek与中国政府

从地缘政治的角度来看,DeepSeek与西方实验室在能力方面的对比,以及出口管制的影响,都值得深入思考。目前已经实施的人工智能扩散管制措施,我们认为不会取消。有消息称,出口管制因DeepSeek的发展而失败,但这是对出口管制机制的误解。最初,H100 被禁止出口,而计算能力相近(但带宽受限)的 H800 被允许出口;随后,H800 也被禁止,现在仅允许 H20 出口。我们在《加速器模型》中提到,尽管需求巨大,但英伟达在 1 月份取消了大量 H20 订单,这可能预示着美国即将出台新的禁令。

在这些法律的实施过程中存在宽限期,DeepSeek很可能在这段时间内大量囤积所需芯片。需要注意的是,H100 自发布以来就被禁止出口。从这个角度来看,出口管制未能完全限制高性能芯片的供应。出口管制的目的并非完全切断中国获取芯片的渠道,而是对整个生态系统进行严格限制,意味着限制数十万甚至数百万芯片的供应,而不仅仅是数万个。

然而,我们预计未来 H20 也将被禁止出口,这将进一步限制DeepSeek获取芯片的能力。

而他们对芯片的需求十分迫切。

DeepSeek的容量限制

DeepSeek难以满足急剧增长的需求。尽管他们拥有世界上最出色的推理技术之一,但进行架构研发、训练模型,与为数千万用户提供可靠服务是截然不同的挑战。DeepSeek的注册服务时常关闭,即便开放注册时,R1 的响应速度也极慢(不过巧妙的用户体验设计掩盖了这一问题)。

我们本月看到的模型受之前出口管制的影响,存在一定滞后性。随着时间推移,DeepSeek深度求索在扩展模型和服务能力方面将面临越来越大的困难。扩展能力迫在眉睫,中国也深知这一点。

在与DeepSeek的首席执行官兼创始人会面后的第二天,中国银行宣布未来 5 年将为人工智能产业链提供 1400 亿美元(1 万亿元人民币)的补贴。该补贴的明确目标是助力中国在科技领域实现完全自主,涵盖基础研究、产业应用和开发等方面。人工智能与机器人、生物技术和新材料是重点关注领域。此外,补贴还包括计算基础设施和数据中心建设,以及为第一代技术设备提供保险和风险管理支持。

我们认为,未来出口管制的影响将更加显著:算法和硬件都将不断进步,美国的实验室能够利用这些创新成果进行扩展,达到中国难以企及的高度。虽然中国可能仍会推出与美国实验室相媲美的模型,但将继续处于追赶地位。

我们也认为,从长期来看,DeepSeek有可能不再开源模型,尤其是在中国政府对其工作给予更多关注,并致力于保护算法创新的情况下。

阅读最新前沿科技趋势报告,请访问欧米伽研究所的“未来知识库”

https://wx.zsxq.com/group/454854145828

beb8c32cb4f31e38b9d2442d9875cddc.jpeg

未来知识库是“欧米伽未来研究所”建立的在线知识库平台,收藏的资料范围包括人工智能、脑科学、互联网、超级智能,数智大脑、能源、军事、经济、人类风险等等领域的前沿进展与未来趋势。目前拥有超过8000篇重要资料。每周更新不少于100篇世界范围最新研究资料。欢迎扫描二维码或访问https://wx.zsxq.com/group/454854145828 进入。

a4f45e9c857d49b9c97dcfbeac7b2b69.jpeg

截止到12月25日 ”未来知识库”精选的100部前沿科技趋势报告

  1. 2024 美国众议院人工智能报告:指导原则、前瞻性建议和政策提案

  2. 未来今日研究所:2024 技术趋势报告 - 移动性,机器人与无人机篇

  3. Deepmind:AI 加速科学创新发现的黄金时代报告

  4. Continental 大陆集团:2024 未来出行趋势调研报告

  5. 埃森哲:未来生活趋势 2025

  6. 国际原子能机构 2024 聚变关键要素报告 - 聚变能发展的共同愿景

  7. 哈尔滨工业大学:2024 具身大模型关键技术与应用报告

  8. 爱思唯尔(Elsevier):洞察 2024:科研人员对人工智能的态度报告

  9. 李飞飞、谢赛宁新作「空间智能」 等探索多模态大模型性能

  10. 欧洲议会:2024 欧盟人工智能伦理指南:背景和实施

  11. 通往人工超智能的道路:超级对齐的全面综述

  12. 清华大学:理解世界还是预测未来?世界模型综合综述

  13. Transformer 发明人最新论文:利用基础模型自动搜索人工生命

  14. 兰德公司:新兴技术监督框架发展的现状和未来趋势的技术监督报告

  15. 麦肯锡全球研究院:2024 年全球前沿动态(数据)图表呈现

  16. 兰德公司:新兴技术领域的全球态势综述

  17. 前瞻:2025 年人形机器人产业发展蓝皮书 - 人形机器人量产及商业化关键挑战

  18. 美国国家标准技术研究院(NIST):2024 年度美国制造业统计数据报告(英文版)

  19. 罗戈研究:2024 决策智能:值得关注的决策革命研究报告

  20. 美国航空航天专家委员会:2024 十字路口的 NASA 研究报告

  21. 中国电子技术标准化研究院 2024 扩展现实 XR 产业和标准化研究报告

  22. GenAI 引领全球科技变革关注 AI 应用的持续探索

  23. 国家低空经济融创中心中国上市及新三板挂牌公司低空经济发展报告

  24. 2025 年计算机行业年度策略从 Infra 到 AgentAI 创新的无尽前沿

  25. 多模态可解释人工智能综述:过去、现在与未来

  26. 【斯坦福博士论文】探索自监督学习中对比学习的理论基础

  27. 《机器智能体的混合认知模型》最新 128 页

  28. Open AI 管理 AI 智能体的实践

  29. 未来生命研究院 FLI2024 年 AI 安全指数报告 英文版

  30. 兰德公司 2024 人工智能项目失败的五大根本原因及其成功之道 - 避免 AI 的反模式 英文版

  31. Linux 基金会 2024 去中心化与人工智能报告 英文版

  32. 脑机接口报告脑机接口机器人中的人机交换

  33. 联合国贸发会议 2024 年全球科技创新合作促发展研究报告 英文版

  34. Linux 基金会 2024 年世界开源大会报告塑造人工智能安全和数字公共产品合作的未来 英文版

  35. Gartner2025 年重要战略技术趋势报告 英文版

  36. Fastdata 极数 2024 全球人工智能简史

  37. 中电科:低空航行系统白皮书,拥抱低空经济

  38. 迈向科学发现的生成式人工智能研究报告:进展、机遇与挑战

  39. 哈佛博士论文:构建深度学习的理论基础:实证研究方法

  40. Science 论文:面对 “镜像生物” 的风险

  41. 镜面细菌技术报告:可行性和风险

  42. Neurocomputing 不受限制地超越人类智能的人工智能可能性

  43. 166 页 - 麦肯锡:中国与世界 - 理解变化中的经济联系(完整版)

  44. 未来生命研究所:《2024 人工智能安全指数报告》

  45. 德勤:2025 技术趋势报告 空间计算、人工智能、IT 升级。

  46. 2024 世界智能产业大脑演化趋势报告(12 月上)公开版

  47. 联邦学习中的成员推断攻击与防御:综述

  48. 兰德公司 2024 人工智能和机器学习在太空领域感知中的应用 - 基于两项人工智能案例英文版

  49. Wavestone2024 年法国工业 4.0 晴雨表市场趋势与经验反馈 英文版

  50. Salesforce2024 年制造业趋势报告 - 来自全球 800 多位行业决策者对运营和数字化转型的洞察 英文版

  51. MicrosoftAzure2024 推动应用创新的九大 AI 趋势报告

  52. DeepMind:Gemini,一个高性能多模态模型家族分析报告

  53. 模仿、探索和自我提升:慢思维推理系统的复现报告

  54. 自我发现:大型语言模型自我组成推理结构

  55. 2025 年 101 项将 (或不会) 塑造未来的技术趋势白皮书

  56. 《自然杂志》2024 年 10 大科学人物推荐报告

  57. 量子位智库:2024 年度 AI 十大趋势报告

  58. 华为:鸿蒙 2030 愿景白皮书(更新版)

  59. 电子行业专题报告:2025 年万物 AI 面临的十大待解难题 - 241209

  60. 中国信通院《人工智能发展报告(2024 年)》

  61. 美国安全与新兴技术中心:《追踪美国人工智能并购案》报告

  62. Nature 研究报告:AI 革命的数据正在枯竭,研究人员该怎么办?

  63. NeurIPS 2024 论文:智能体不够聪明怎么办?让它像学徒一样持续学习

  64. LangChain 人工智能代理(AI agent)现状报告

  65. 普华永道:2024 半导体行业状况报告发展趋势与驱动因素

  66. 觅途咨询:2024 全球人形机器人企业画像与能力评估报告

  67. 美国化学会 (ACS):2024 年纳米材料领域新兴趋势与研发进展报告

  68. GWEC:2024 年全球风能报告英文版

  69. Chainalysis:2024 年加密货币地理报告加密货币采用的区域趋势分析

  70. 2024 光刻机产业竞争格局国产替代空间及产业链相关公司分析报告

  71. 世界经济论坛:智能时代,各国对未来制造业和供应链的准备程度

  72. 兰德:《保护人工智能模型权重:防止盗窃和滥用前沿模型》-128 页报告

  73. 经合组织 成年人是否具备在不断变化的世界中生存所需的技能 199 页报告

  74. 医学应用中的可解释人工智能:综述

  75. 复旦最新《智能体模拟社会》综述

  76. 《全球导航卫星系统(GNSS)软件定义无线电:历史、当前发展和标准化工作》最新综述

  77. 《基础研究,致命影响:军事人工智能研究资助》报告

  78. 欧洲科学的未来 - 100 亿地平线研究计划

  79. Nature:欧盟正在形成一项科学大型计划

  80. Nature 欧洲科学的未来

  81. 欧盟科学 —— 下一个 1000 亿欧元

  82. 欧盟向世界呼吁 加入我们价值 1000 亿欧元的研究计划

  83. DARPA 主动社会工程防御计划(ASED)《防止删除信息和捕捉有害行为者(PIRANHA)》技术报告

  84. 兰德《人工智能和机器学习用于太空域感知》72 页报告

  85. 构建通用机器人生成范式:基础设施、扩展性与策略学习(CMU 博士论文)

  86. 世界贸易组织 2024 智能贸易报告 AI 和贸易活动如何双向塑造 英文版

  87. 人工智能行业应用建设发展参考架构

  88. 波士顿咨询 2024 年欧洲天使投资状况报告 英文版

  89. 2024 美国制造业计划战略规划

  90. 【新书】大规模语言模型的隐私与安全

  91. 人工智能行业海外市场寻找 2025 爆款 AI 应用 - 241204

  92. 美国环保署 EPA2024 年版汽车趋势报告英文版

  93. 经济学人智库 EIU2025 年行业展望报告 6 大行业的挑战机遇与发展趋势 英文版

  94. 华为 2024 迈向智能世界系列工业网络全连接研究报告

  95. 华为迈向智能世界白皮书 2024 - 计算

  96. 华为迈向智能世界白皮书 2024 - 全光网络

  97. 华为迈向智能世界白皮书 2024 - 数据通信

  98. 华为迈向智能世界白皮书 2024 - 无线网络

  99. 安全牛 AI 时代深度伪造和合成媒体的安全威胁与对策 2024 版

  100. 2024 人形机器人在工业领域发展机遇行业壁垒及国产替代空间分析报告

  101. 《2024 年 AI 现状分析报告》2-1-3 页.zip

  102. 万物智能演化理论,智能科学基础理论的新探索 - newv2

  103. 世界经济论坛 智能时代的食物和水系统研究报告

  104. 生成式 AI 时代的深伪媒体生成与检测:综述与展望

  105. 科尔尼 2024 年全球人工智能评估 AIA 报告追求更高层次的成熟度规模化和影响力英文版

  106. 计算机行业专题报告 AI 操作系统时代已至 - 241201

  107. Nature 人工智能距离人类水平智能有多近?

  108. Nature 开放的人工智能系统实际上是封闭的

  109. 斯坦福《统计学与信息论》讲义,668 页 pdf

  110. 国家信息中心华为城市一张网 2.0 研究报告 2024 年

  111. 国际清算银行 2024 生成式 AI 的崛起对美国劳动力市场的影响分析报告 渗透度替代效应及对不平等状况英文版

  112. 大模型如何判决?从生成到判决:大型语言模型作为裁判的机遇与挑战

  113. 毕马威 2024 年全球半导体行业展望报告

  114. MR 行业专题报告 AIMR 空间计算定义新一代超级个人终端 - 241119

  115. DeepMind 36 页 AI4Science 报告:全球实验室被「AI 科学家」指数级接管

  116. 《人工智能和机器学习对网络安全的影响》最新 273 页

  117. 2024 量子计算与人工智能无声的革命报告

  118. 未来今日研究所:2024 技术趋势报告 - 广义计算篇

  119. 科睿唯安中国科学院 2024 研究前沿热度指数报告

  120. 文本到图像合成:十年回顾

  121. 《以人为中心的大型语言模型(LLM)研究综述》

  122. 经合组织 2024 年数字经济展望报告加强连通性创新与信任第二版

  123. 波士顿咨询 2024 全球经济体 AI 成熟度矩阵报告 英文版

  124. 理解世界还是预测未来?世界模型的综合综述

  125. GoogleCloudCSA2024AI 与安全状况调研报告 英文版

  126. 英国制造商组织 MakeUK2024 英国工业战略愿景报告从概念到实施

  127. 花旗银行 CitiGPS2024 自然环境可持续发展新前沿研究报告

  128. 国际可再生能源署 IRENA2024 年全球气候行动报告

  129. Cell: 物理学和化学 、人工智能知识领域的融合

  130. 智次方 2025 中国 5G 产业全景图谱报告

上下滑动查看更多

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值