-斯坦福人工智能创新研究院的教授们讨论中国的新模式
-How Disruptive Is DeepSeek? Stanford HAI Faculty Discuss China’s New Mode
l范妮莎·帕利2025年2月13日
编者注:斯坦福大学的九位学者专家们就DeepSeek的开源模型及其对深度学习的工程技术(航天航空、生物、CS/ML)、法律、地缘政治、艺术四大方面方面的影响进行评估。不同的视角不同的分析和结论。工程。斯坦福大学九位学者对DeepSeek颠覆创新态度:工程类((遗传生物、汽车工程、机器学习、计算机科学与工程))学者比较乐观和美好想象,法学院学者比较谨慎,艺术人文学者有些悲观。DS的总结看一看,个人感觉没有提炼出个人想要的观点。
最近几周,中国强大而具有成本效益的开源语言模型DeepSeek的出现在学者和行业研究人员之间引起了广泛的讨论。在斯坦福人类中心人工智能研究所(HAI),教职员工不仅在研究该模型的技术进步,还在研究其对全球学术界、产业界和社会的更广泛影响。
DeepSeek挑战了关于AI领域需要的资本和计算资源的先入为主观念,这对于严肃推动AI领域的进展是至关重要的。DeepSeek展示的出色工程能力和算法创新可能让资源较少的组织也能在重要项目上展开竞争。这种出色的工程能力,加上开源权重和详细的技术论文,促进了一个推动技术进步几十年的创新环境。
深度求索在开源社区中采用的开放权模型和详细技术论文是一个进步,但在隐私保护、数据来源和版权方面明显缺乏透明度,增加了人们对AI对艺术、规制和国家安全的影响的担忧。深度求索由中国组织发布这一事实突显了在全球AI生态系统内需要战略性思考监管措施和地缘政治影响的重要性,其中,并非所有参与者拥有相同的规范,而像出口控制这样的机制也没有同等影响。
DeepSeek重新点燃了关于开源、法律责任、地缘政治力量转移、隐私问题等议题的讨论。在这些观点的集合中,斯坦福人工智能与人类社会研究所的高级研究员们提供了关于DeepSeek对人工智能领域和整个社会意味着什么的多学科讨论。
目录
1 RUSS ALTMAN-生物工程、遗传学、医学和生物医学数据科学教授
2 YEJIN CHOI-计算机科学教授
3 威廉·罗伯逊·科(WILLIAM ROBERTSON COE)人文学教授
4 MYKEL KOCHENDERFER-航空航天学副教授
5 詹姆斯·兰戴JAMES LANDAY-工程学院计算机科学教授,斯坦福人工智能实验室联合主任
6 PERCY LIANG-计算机科学副教授,基础模型研究中心(CRFM)主任
7 CHRISTOPHER MANNING-语言学和计算机科学系的机器学习教授
8 朱利安·尼亚科(JULIAN NYARKO)-法学院法学教授
9 AMY ZEGART-胡佛研究所政治学高级研究员
10 用DEEPSEEK R1对9位学者进行分类归纳总结
1 Russ Altman-生物工程、遗传学、医学和生物医学数据科学教授
方肯豪教授是斯坦福大学生物工程、遗传学、医学和生物医学数据科学教授,斯坦福人工智能研究所高级研究员,兼任计算机科学教授。
我们在HAI是学术界的一员,DeepSeek发展中的一些要素为学术界提供了重要的教训和机会。
首先,Meta所承诺的开源精神(也被DeepSeek采纳)似乎超越了地缘政治的界限- DeepSeek和Meta的Llama为学者提供了一个机会,从独立的角度检查、评估、评价和改进现有的方法。现在,“闭源”运动在证明这种方法时遇到了一些挑战-当然仍然存在一些合理的担忧(例如,恶意行为者使用开源模型进行不良行为),但即使是这些问题也可以通过公开获取这些恶意行为者使用的工具来进行最有效的应对,以便学术界、工业界和政府能够合作创新,以降低风险。
其次,聪明的工程技术和算法创新降低了严肃人工智能系统的资本需求,这意味着学术界(以及其他领域)中一些资金不充裕的努力可能能够在某些类型的系统构建中竞争和贡献。我们中的许多人认为,要使人工智能民主化,我们必须等到下一代价格便宜的人工智能硬件才行,这种情况可能仍然存在。但即使在那之前,我们已经看到了软件创新也可以是效率和降低成本的重要来源,这是出乎意料的。综合考虑,我们现在可以想象由资源更为有限的组织构建出非平凡且相关的真实世界人工智能系统。
第三,DeepSeek的进展结合基于智能体的AI系统的进步,使人们更容易想象到广泛创建专门的AI智能体的可能性,这些智能体可以混合搭配以创建功能强大的AI系统。单一的“通用人工智能”可能仍然具有学术意义,但更具成本效益和更好的工程化(例如模块化)是创建由可以在合并之前构建、测试、维护和部署的组件构建的系统。AI智能体相互合作(以及与人类合作)的模型复制了解决问题的人类“团队”的概念。有时问题能够由单个单olithic天才解决,但这通常不是正确的选择。因此,DeepSeek帮助恢复平衡,通过验证开源分享思想(数据显然是另一回事),展示了持续算法创新的力量,并促进了经济创造可以经济混合和搭配以产生有用和健壮的AI系统的AI智能体。当然,仍然存在一些问题:
l
如何在尊重版权和其他知识产权的同时使获取建模所需的大量数据民主化?
l
如何在一些专业领域的数据量不足时构建专门的模型?
l
如何评估一个使用多个AI智能体的系统,以确保其正常运行?即使各个智能体已经经过验证,这是否意味着它们在组合中也是经过验证的?
2 Yejin Choi-计算机科学教授
Dieter Schwartz基金会HAI教授,计算机科学教授,斯坦福HAI高级研究员。
DeepSeek的R1模型的成功表明,当存在一个“解决方案存在的证据”(正如OpenAI的o1所证明的那样)时,其他人也很快会找到解决方案。DeepSeek决定分享R1训练的详细配方并公开不同尺寸的权重模型,这具有深远的影响,因为这可能会进一步加速进展的速度-我们即将目睹新的开源努力复制和增强R1的大量出现。这种转变表明,以强制性规模为特征的时代即将结束,为新的阶段让路,该阶段侧重于算法创新,通过数据合成、新的学习框架和新的推理算法继续扩展规模。
然而,我们现在面临的一个重要问题是如何利用这些强大的人工智能系统造福整个人类。一个模型在数学基准上表现优异并不立即转化为解决人类所面临的困难挑战,包括不断升级的政治紧张局势、自然灾害,或是持续传播的错误信息。技术能力和实际社会影响之间的脱节仍然是该领域最迫切的挑战之一。
Michele Elam
3 威廉·罗伯逊·科(William Robertson Coe)人文学教授
在美国人对最近中国推出的价格明显更低、计算需求更少、对环境影响更小的DeepSeek AI聊天机器人感到忧虑和困惑时,迄今为止,很少有人考虑到这对人工智能对艺术的影响。实际上,对于文学、表演艺术、视觉文化等方面,DeepSeek意味着什么可能在高度关注国家安全、美国人工智能产业的经济贬值、以及开源对创新的利与弊等更为重要的焦虑面前显得毫无关联。
但事实上,DeepSeek在涉及隐私保护、数据来源和抓取,以及NIL和版权争议方面的完全不透明,对艺术领域产生了巨大影响。其实,“不透明”这个词是个夸大的说法:DeepSeek对这些问题的回应是“甚至无需费心”。别管创意产业中的SAG-AFTRA罢工,还是《纽约时报》等许多持续进行的诉讼。
在很多方面,DeepSeek的态度,这其实是我们的错。其聊天机器人的极高流行性,是对美国消费者自身日益倾向于对这些问题视而不见的放大反映,也是对其资本化的利用,这种倾向受到该行业的积极鼓励,其商业模式故意将我们的注意力从这些不愉快的事情引开,以此谋求投资回报。
与TikTok一样,DeepSeek利用了过去几年我们文化逐渐蔓延的现象,每次点击设备上更新的越来越模糊的合同条款时,我们就放弃了隐私权利(通常以“个性化”为美好的营销委婉语)。
深度求索(DeepSeek)对私人和敏感数据的全面利用已被多方指出,这利用了国家对人工智能缺乏任何监管的失败,这与英国和欧盟不同,也因为我国信奉“监管阻碍创新”的理念,这样会在很多方面对我国造成风险。
但就艺术而言,我们最好还是注意到DeepSeek通过其先发制人的审查、与民族主义意识形态的一致性、我们对其算法塑造现实的无意知晓或无思考的同意-也就是说,它塑造了我们如何看待和行动于这个世界的能力。斯坦福目前通过微软的Azure计划,已经适应了一个“更安全”的DeepSeek版本,用来进行实验,并警告社区不要使用商业版本,因为存在安全和安全性问题。但是,无论如何,DeepSeek的发布凸显出这项技术对我们的现实体验产生巨大影响的风险和回报-特别是我们到底怎样看待现实。正如柏拉图和亚里士多德之间关于戏剧和诗歌的影响力公共力量早期辩论所表明的那样,这也正是艺术的力量所在。
4 Mykel Kochenderfer-航空航天学副教授
斯坦福大学航空航天学副教授,斯坦福人工智能智囊团高级研究员
AI越来越多地被用于支持安全关键或高风险场景,范围从自动化车辆到临床决策支持。然而,将当前AI系统中的缺乏可解释性与高风险应用中的安全工程标准调和仍然是一个挑战。DeepSeek R1特别引人注目的一个方面是,在回答复杂查询时似乎透明的推理能力。它提供的细节水平可以促进审计,并有助于建立对其生成内容的信任。在向语言模型提问时的透明推理被称为干扰时可解释性。虽然语言模型中的干扰时可解释性仍处于初级阶段,并需要较大的发展才能达到成熟,但我们今天看到的初步步伐可能有助于引导未来能够安全可靠地辅助人类的系统。
应用近期人工智能的最新进展到许多应用中的另一个障碍是所需的巨大数据量和计算量。DeepSeek表明仍然存在巨大潜力,可以开发新的方法,减少对大型数据集和大量计算资源的依赖。我希望学术界,与工业界合作,可以帮助加速这些创新。通过创建更有效的算法,我们可以使语言模型在边缘设备上更易获得,消除对高成本基础设施持续连接的需求。凭借这些语言模型可以嵌入的大量常识知识,我们可以开发出更智能、更有帮助和更有韧性的应用程序——这在最关键时刻尤为重要。
5 詹姆斯·兰戴James Landay-工程学院计算机科学教授,斯坦福人工智能实验室联合主任
斯坦福大学工程学院计算机科学教授,斯坦福人工智能实验室联合主任。
DeepSeek是该领域的一件好事。他们正在发布他们的工作。他们的模型是以开放的权重发布的,这意味着其他人可以修改它并在自己的服务器上运行它。他们正在降低人工智能的成本。这对推动人工智能研究和应用是件好事。人工智能面临的最大批评之一是训练大型基础模型和为这些模型服务查询/推理的可持续性影响。DeepSeek展示了许多有用的优化,这些优化减少了计算方面的成本,涵盖了人工智能可持续性方程两侧的内容。这对该领域是有好处的,因为每家公司或研究人员都可以使用相同的优化(它们在技术报告中有记录,并且代码是开源的)。
“通过技术报告和开源代码分享创新的做法延续了开放研究的传统,这种传统已经至关重要地推动了过去40年的计算技术发展。”
通过技术报告和开源代码分享创新的实践延续了开放研究的传统,这种传统在过去40年推动了计算机领域的发展。作为一个研究领域,我们应该欢迎这种工作类型。这将有助于提升每个人的工作水平。尽管许多美国公司倾向于专有模式,仍存在许多问题,特别是涉及数据隐私和安全方面,DeepSeek的开放式方法促进了更广泛的参与,有益于全球AI社区的发展,推动了迭代、进步和创新。
6 Percy Liang-计算机科学副教授,基础模型研究中心(CRFM)主任
斯坦福大学计算机科学副教授,基础模型研究中心(CRFM)主任,斯坦福HAI高级研究员
DeepSeek R1显示,先进的人工智能将广泛普及并且难以控制,同时也没有国界。它还表明,除了具有大量的计算能力之外,创造力和工程技术也很重要。对于学术界来说,更多强大的开放权重模型的可用性是一个福音,因为它能够实现可重复性,保护隐私,并且允许对先进人工智能的内部进行研究。
7 Christopher Manning-语言学和计算机科学系的机器学习教授
斯坦福大学语言学和计算机科学系的Thomas M. Siebel机器学习教授,同时也是斯坦福人工智能研究所的副主任。
人们视这种事情为某种突如其来的惊喜,但如果你一直在积极关注开源人工智能,这并不是什么意外。DeepSeek在过去一年里一直公开发布开源模型和详细的技术研究论文。DeepSeek V3的训练成本于2024年12月公布;R1-Lite-Preview版本于2024年11月发布。
“这对于一个长期倡导开放科学和工程的开放国家来说是一个悲哀的现状,目前了解现代LLM设计和工程细节的最佳方式是阅读中国公司的详尽技术报告。”
这一发布突显了美国所谓的“前沿”人工智能公司并没有某种巨大的技术壁垒。现在有许多出色的中国大型语言模型(LLMs)。最多这些公司领先六个月,也许只有OpenAI领先一些。长期以来一直在推动开放科学和工程的一个开放国家的现状是,了解现代LLM设计和工程细节的最佳方法是阅读中国公司的详尽技术报告。
DeepSeek已经进行了一些非常好的数据工程,最大限度地减少了数据流量,并在fp8中实现了高效稳定的训练。他们有一些适度的技术进步,使用了一种独特的多头潜在注意力形式,在混合专家中有大量专家,并采用了自己简单高效的强化学习(RL)形式,这与一些人更倾向于基于规则的奖励的想法背道而驰。但这里并没有什么完全的下一代产品。DeepSeek使用了与其他公司类似的方法和模型,Deepseek-R1在敏捷地迎头赶上,提供了与OpenAI o1相似质量的突破性产品。这并不是在能力上的新突破。
DeepSeek-R1发布确实显著推进了开源LLM的前沿,这表明美国无法遏制强大的开源LLM的发展。这可能意味着更多美国公司会开始在其产品中使用中国的LLM,而在此之前,它们通常会避免使用它们,而更倾向于使用Meta的Llama模型或来自Databricks等其他公司的模型。
Hear more from Prof. Manning on DeepSeek inthis talk with AIX Ventures. 与AIX Ventures一起听听Manning教授关于DeepSeek的更多讲解。
8 朱利安·尼亚科(Julian Nyarko-法学院法学教授
斯坦福法学院法学教授,斯坦福HAI副主任
LLMs是一种广泛应用于许多领域的“通用技术”。有些公司开发这些模型,而其他公司则将它们用于特定目的。目前一个关键的争论是,对于模型行为造成损害,应由谁承担责任——是建立模型的开发者,还是使用这些模型的组织机构。在这种背景下,由一家中国初创公司开发的DeepSeek的新模型突显了全球人工智能发展可能会让监管回应变得更加复杂,特别是当不同国家有着不同的法律规范和文化理解时。虽然出口管制一直被认为是确保领先的AI实施遵守我们的法律和价值体系的重要工具,但DeepSeek的成功凸显了这类措施的局限性,尤其是当竞争国家可以(在某种程度上)独立地发展和发布最先进的模型时。DeepSeek发布的开源性进一步让法律责任的问题变得更加复杂。由于这些模型可自由修改和部署,因此模型开发者能够有效解决模型可能带来的风险的想法可能会变得越来越不切实际。相反,监管的重点可能需要转向模型使用的下游后果,可能会更多地责备那些部署模型的人。
9 Amy Zegart-胡佛研究所政治学高级研究员
摩里斯·阿诺德(Morris Arnold)和诺娜·琼·考克斯(Nona Jean Cox)是胡佛研究所(Hoover Institution)的高级研究员、弗里曼·斯波格利国际研究所(Freeman Spogli Institute for International Studies)的高级研究员,同时是斯坦福大学人工智能研究所(Stanford HAI)的教授(兼职)政治学。
过去几周的DeepSeek深度疯狂聚焦在芯片领域。 芯片囤积、走私或绕过美国出口管制是多少?在DeepSeek的进步之下,研究人员需要多少种类的芯片才能在前沿进行创新?美国的超大规模运算者如OpenAI最终是花费数十亿建设了具有竞争力的壕沟,还是只是建造了一个仅仅产生安全错觉的马其诺防线?这些都是重要问题,答案需要时间。
“上个月撰写了突破性的R1论文的近200名工程师几乎都是在中国的大学接受教育的,约一半的工程师在国外没有学习或工作过。这对美国政策制定者来说应该是一个警示信号。”
。然而,已经出现了三个严重的地缘政治影响。
首先,DeepSeek成功地利用本土人才。上个月撰写突破性研究《R1论文》的近200名工程师几乎都是在中国大学接受教育的,大约一半的人在其他地方既学习又工作过。这对美国政策制定者来说应该是一个警示。在科技时代,人才是国家实力的重要来源。口号“美国吸引世界上最优秀的人才”虽然频繁地被提及,但它越来越错误了。中国和世界其他地方教育水平的提高以及高等教育机构的显著进步正在重新绘制知识力量地图。与此同时,美国的K-12教育一团糟,美国15岁学生在上次国际考试中数学成绩惨淡,排名第34位,落后于斯洛文尼亚和越南。
其次,DeepSeek并没有模仿美国公司,而是模仿了美国大学。这家初创公司聘请年轻的工程师,而不是经验丰富的行业专家,并为他们提供自由和资源进行“疯狂的科学”研究,这种研究旨在长期探索本身,并非针对下个季度的产品开发。商业化是创新的重要组成部分。但突破常常始于没有可预见产品或利润目标的基础研究。这种基础研究是大学的生命线,几十年来一直支撑着美国的创新领导地位——从魔方卫星到COVID-19疫苗的出现。然而,如今中国在基础研究方面的投资速度比美国政府快六倍,如果当前趋势持续下去,中国将在十年内超过美国的投资。这是一个关键的长期创新战场,而美国正在放弃这个领域。
DeepSeek的宣布刺激了美国市场,导致纳斯达克综合指数下跌了3%,英伟达股价下跌了17%,抹去了6000亿美元的价值。这是美国历史上一家公司单日损失最大的记录,数量如此庞大,相当于美国国防预算的65%。今天的这种意外后果可能会成为明天的预期后果。想象一下,对手有意公布一个真实或欺诞性的技术进步,以惩罚特定公司或震慑另一个国家的资本市场。这种灰色地带的经济武器可以精确地定位或大规模使用。很难,也许无法将其归因为有意的活动。而且最好是在没有警告的情况下出现。
过于牵强吗?过去十年间,我们目睹了其他领域惊人的灰色地带活动的崛起,。DeepSeek不仅仅发布了新的人工智能进展;它揭示了一个新兴地缘政治时代的轮廓,这个时代有新的国家力量来源和新的战场。
以下为编译者用DS的归纳总结。
10
用DeepSeek R1对9位学者进行分类归纳总结
斯坦福学者对DeepSeek的多元视角总结
1.开源模式与技术民主化
·
Russ Altman、James Landay与Percy Liang强调,DeepSeek的开源策略(公开模型权重与技术细节)打破了技术壁垒,降低了AI研发门槛,推动学术界与工业界的协作创新。Meta的Llama与DeepSeek验证了开源在算法迭代、隐私保护及可重复性研究中的价值,挑战了闭源模式的垄断地位。
·
Christopher Manning指出,美国开源社区的技术透明度已落后于中国公司,DeepSeek的技术报告成为全球研究者的重要参考,暴露了美国前沿AI公司缺乏绝对技术优势的现实。
2.技术创新与效率提升
·
Russ Altman与Mykel Kochenderfer认为,DeepSeek通过工程优化(如数据效率、fp8训练、模块化智能体设计)显著降低了计算成本,证明算法创新可弥补硬件资源不足,使边缘设备和小型组织参与高性能AI开发成为可能。
·
Yejin Choi与Christopher Manning指出,尽管DeepSeek未实现技术代际突破,但其敏捷迭代能力(如多专家混合、简化强化学习框架)加速了开源模型性能追赶闭源模型的进程。
3.法律、伦理与社会责任
·
Julian Nyarko与Michele Elam聚焦法律与伦理挑战:开源模型的全球可修改性模糊了开发者与部署者的责任边界,需转向下游监管;DeepSeek数据来源的不透明性及对版权、隐私的漠视,反映了AI商业化与艺术、文化权益的冲突。
·
Yejin Choi警示,技术能力(如数学基准优势)与社会问题解决(如气候危机、虚假信息)之间存在鸿沟,亟需将AI创新导向公共利益。
4.安全与可解释性
·
Mykel Kochenderfer肯定DeepSeek在推理透明性上的尝试(如“干扰时可解释性”),认为其细节输出有助于高风险场景(自动驾驶、医疗)的模型审计与信任构建,但需进一步发展成熟方法论。
5.地缘政治与竞争格局
·
Amy Zegart揭示深层影响:
o
人才竞争:DeepSeek团队以本土培养人才为主,挑战美国“全球吸纳顶尖人才”的传统优势,中国在基础研究投资增速远超美国,长期可能重塑创新领导权。
o
经济武器化风险:DeepSeek发布引发美股震荡,预示技术进步可能成为灰色地带经济战的工具,需警惕对手通过技术公布操纵资本市场。
·
Christopher Manning与Amy Zegart指出,美国出口管制与芯片封锁策略效果有限,中国通过本土创新突破技术限制,开源模型进一步削弱了技术国界。
6.艺术与文化影响
·
Michele Elam批判DeepSeek对艺术领域的冲击:数据抓取缺乏透明度加剧版权争议,算法审查与民族主义倾向可能塑造文化认知,类似TikTok通过“个性化”名义侵蚀隐私权,反映消费者与监管对数据伦理的忽视。
7.可持续性与行业生态
·
James Landay赞赏DeepSeek在能效优化上的贡献(如降低训练与推理成本),推动AI可持续发展,其开源实践延续计算机科学的开放传统,促进全球协作创新。
8核心挑战与未来方向
学者们共同呼吁关注以下问题:
·
如何在开源共享与数据版权/隐私保护间取得平衡?
·
如何评估多智能体系统的整体可靠性?
·
如何将技术能力转化为复杂社会问题的解决方案?
·
如何构建跨国界、跨文化的AI治理框架?
结论
DeepSeek不仅是技术突破的案例,更是全球化AI竞争中的多棱镜:它凸显开源与闭源的博弈、技术民主化与伦理风险的并存、地缘政治格局的重塑,以及跨学科协作的迫切性。斯坦福学者的一致共识是,应对这些挑战需学术界、产业界与政策制定者的深度合作,以确保AI发展兼顾创新、责任与全球福祉。