AI教父”杨立昆:现有训练方式永远实现不了人类水平 AI

8aac74c6a7a1b9241171f24a498266d7.jpeg

来源:AI 科技大本营(ID:rgznai100)

作者:Eric Harrington

在人工智能快速发展的 2024 年,科技界分成了两派:一派认为 AI 即将失控,将给人类带来生存威胁,代表是诺奖 & 图灵奖双料得主杰弗里·辛顿(Geoffery Hinton);另一派则认为这种担忧被严重夸大。作为 Meta(原Facebook)首席科学家、神经网络领域的开创者之一杨立昆(Yann LeCun)站在了后一派的最前线。

两人和另一位图灵奖得主约书亚·本吉奥(Yoshua Benjio)并称为“AI 三教父”,而本吉奥也和辛顿同样站在了杨立昆的对立面。

bf05cbbf79452c870ed7f8629e97b253.jpeg

LeCun, Hinton, Bengio

在近日的一次深度对话中,杨立昆毫不掩饰地表达了他对「AI 末日论」的不屑。“有人说五个月后 AI 就会消灭人类,显然他们错了。”但杨立昆并非盲目乐观。在他看来,真正的挑战不在于 AI 是否会统治人类,而在于如何确保这项技术的民主化,避免其被少数科技巨头垄断。

3209884bf7b2cbda84bb2f2c69996c5d.jpeg

本场对话的采访者是 Kara Swisher,Recode 联合创始人、顶尖科技记者、播客主持人。AI 科技大本营上一次整理她的相关文章还是“ChatGPT 之母” Mira Murati 仍在 OpenAI 当 CTO 的时候,同场还对话了李飞飞:《AI 教母对话 ChatGPT 之母:大模型具备说服、影响人类甚至控制整个社会的危险能力》。

立昆本次采访,分享了关于人工智能未来的九大关键洞见:

1. AI 威胁论。“我们确实会在未来拥有比人类更智能的 AI 系统,这是不可避免的。但在我们找到正确的技术路径之前,谈论如何确保它的安全就像在 1920 年代讨论喷气式客机安全性一样不切实际。”

2. 开源与垄断。“如果只有美国西海岸的三家公司控制着所有人的数字生活,这将是民主的终结。我们需要开放的 AI 平台,让不同文化、不同价值观的人们都能参与其中。”

3. AI 的学习方式。“一个四岁的孩子通过视觉接收到的数据量,与最大的语言模型通过文本接收的数据量相当。但阅读这些文本需要几十万年,而孩子只用了 16,000 小时。这告诉我们,仅靠文本训练永远无法达到人类水平的 AI。”

4. 技术发展现状。“我们有能通过律师资格考试的 AI,但连一个能自动收拾餐桌的家用机器人都造不出来。这说明什么?理解物理世界比处理语言要困难得多。我们还远未达到通用人工智能的水平。”

5. 监管与政策。“对 AI 产品进行监管是必要的,但对研发设限是极其危险的。这种限制会导致只有少数已进入该领域的公司能够继续发展,形成垄断。我们需要的是开放和竞争。”

6. 全球化视角。“未来的 AI 必须能说印度的 700 种语言,印度尼西亚的 300 多种语言。这不可能由单一公司在封闭环境中完成,需要全球性的分布式合作。就像 Linux 一样,这必须是一个开放的平台。”

7. 安全与伦理。“让 AI 变得安全不是通过限制其发展,而是从设计之初就植入正确的目标和约束。这就像制定法律一样——我们通过法律塑造人类行为,也可以通过设计约束来规范 AI 行为。”

8. 未来展望。“在未来 5 到 10 年内,每个人都将随身携带 AI 助手,某种程度上比自己更聪明的助手。这不仅是技术的进步,更是一个全新的计算平台。”

9. 社会影响。“AI 不是制造问题的工具,而是解决问题的方案。以 Facebook 为例,从 2017 年到 2022 年,AI 自动删除仇恨言论的比例从 23% 提升到 95%。关键是确保好人手中的 AI 比坏人手中的更强大。”

以下是本次对话全文,经 CSDN 精编处理:

dfb87105c2feb7fd964f182dbed46e26.jpeg

世界上“最恨”马斯克的科学家?

主持人:作为神经网络(neural networks)领域的开创者之一,你被誉为人工智能界的泰斗。这项基础性研究奠定了当今最先进人工智能系统的基石。而在科技界中,你可以说是社交媒体上最引人注目的评论者。作为一位科学家,同时也是公民,你向来敢言直谏——事先说明一下,我已向 Meta 公关部门承诺,今天不会让他们难做。

让我先引用你的一些言论,并请你谈谈为何要这样表达。在科技界,除了埃隆·马斯克外,很少有人会如此直言不讳。不过与他不同,我倒很欣赏你的观点。比如你在 2024 年 9 月 27 日又说:“埃隆不仅仅是收购了推特,他买下的是一台影响人们思维的宣传机器。”这些都算是你比较温和的评论了。

还有这句:“我欣赏他的电动车、火箭和卫星网络技术,但不认同他对人工智能存在性风险(existential risk)的立场。我不喜欢他总是夸大其词,更反感他近来表现出的报复性、阴谋论式的偏激立场。

看看,连我对他的评价都比你温和,这还像话吗?(Kara Swisher 以言辞辛辣的记者风格闻名)总之,你经常公开与埃隆·马斯克争锋相对,那你未来会收敛言论吗?或者说,你根本不在意这些?

杨立昆:我关注和思考的问题其实有很多。我是典型的古典自由主义者(classic liberal)。在欧洲政治光谱中,这个立场恰好位于中间,而在美国却不是这样。让我对埃隆产生强烈反应的,是他开始攻击高等教育机构、科学界乃至于科学家时的言论。

作为一名科学家,我同时也是大学教授和 Meta 的高管。在 Meta,我很感激能够保持独立发声的自由。从我的言论就能看出,这也体现了公司的管理理念。这一点也反映在我在 Meta 创建的研究实验室中——我们公开发表所有研究成果,将代码开源,对研究成果和观点都持开放态度。所以,作为一个理性主义者和科学家,当埃隆攻击科学体制时,我确实感到不安。

主持人:现在埃隆已处于风口浪尖,你将如何应对这种局面?

杨立昆:我曾多次与埃隆会面。他其实也能讲道理。归根结底,无论政治或哲学观点如何分歧,我们终究要学会合作共事。不过要说明的是,我在 Meta 并不负责政策制定。我专注于基础研究,不参与内容政策的制定。

主持人:我很好奇,为什么你选择加入 Meta,而不是像过去那样在顶尖研究型大学或其他机构任职?你如何看待自己的影响力?你说自己只是一个专注研究的科学家,但实际情况似乎不止于此。

杨立昆:首先,我仍然保持着学术身份,是纽约大学的教授。当扎克伯格在大约 11 年前找到我时,他希望我为 Meta 创建一个人工智能研究实验室。他有远见地认识到这项技术将产生重大影响,事实证明他是对的。

我当时提出了三个条件:第一,我不会搬离纽约第二,我不会放弃纽约大学的工作第三,我们的所有研究都将公开进行,发表所有成果,并开源我们的代码。扎克伯格的回答是:“没问题,不用担心第三点,这符合公司的理念,我们已经开源了所有平台代码。”

在当时,没有其他拥有足够资源建立研究实验室的机构会给出这样的答复。这给了我一个机会,从零开始在工业界创建研究机构,并按照我认为恰当的方式塑造它。我在贝尔实验室开始职业生涯时积累了一些经验,了解如何在工业界开展富有野心的研究。这对我来说是一个令人振奋的挑战。

主持人:大卫·萨克斯(David Sacks)最近被任命为人工智能和加密货币主管,人称“AI 沙皇”。此人是一位投资人,也是 PayPal 创始团队成员,与埃隆·马斯克交情匪浅。作为一位从事研究工作的科学家,你如何看待政府设立了这样的职位?这对你来说重要吗?

杨立昆:这对我来说确实很重要。

主持人:请详细说明原因。

杨立昆:这涉及几个不同层面的问题。首先,我们要避免制定将开源人工智能平台(open source AI platforms)定为非法的法规。这些平台对技术进步和普及应用都至关重要,我们稍后可以详细讨论这一点。这是首要任务。当然,对基于人工智能的产品进行监管是完全可以理解的。我并非反对任何形式的监管。

其次,学术界正在落后,难以为人工智能的进步做出贡献,主要是因为计算资源的匮乏。因此,我认为政府应该为学术界配置计算资源。

主持人:你提到学术界。这确实发生了巨大变化,早期的计算机研究大多来自学术界,而现在却转移到了其他地方。如果让你来当“AI 沙皇”,你会采取什么行动?这样的职位对你有吸引力吗?

杨立昆:不,完全没兴趣。若要问为什么?因为我热爱科学。在我的职业生涯中,我本有很多机会成为管理者。我在 Meta 担任管理职务四年,之后转任首席人工智能科学家。说实话,我现在的职位是公司里最令人羡慕的。虽然我是高级副总裁,但没有任何下属向我汇报。我不需要管理任何组织。

主持人:在你看来,“AI 沙皇”最重要的工作是什么?可能只是做做表面文章,谈谈人工智能。但从你的角度来看,一位称职的 AI 主管应该做些什么?确保开源不被定为非法?说实话,我觉得开源不太可能被定为非法。

杨立昆:过去两年,随着人工智能变得越来越强大,人们一直在讨论它是否会变得本质上具有危险性。这里说的不是产品的危险性,而是技术本身的危险性。因此,是否应该对人工智能系统的能力进行某种程度的限制?我一直反对这种监管研发的想法,认为这极其适得其反。这种想法是基于对人工智能潜在危险的错误认知。

人们认为人工智能最终会统治世界之类的想法——我们离这种情况还很遥远。目前这种监管毫无意义。实际上,现有的监管提案可能会导致已经进入该领域的少数公司形成监管俘获。

主持人:你建议政府应该放开限制,增加对学术界的资金支持。你觉得还应该在人工智能领域采取哪些积极行动?

杨立昆:政府确实需要加深对人工智能的认知和理解。至于积极行动,正如我之前提到的,这涉及产业政策。目前支撑人工智能发展的芯片全部由英伟达一家公司设计。在芯片领域,我们或许需要采取措施,使市场环境更具竞争性。

还有一个对全球各国政府都至关重要的问题:人工智能正在迅速发展成为一个通用知识平台(universal knowledge platform),成为人类知识的总储存库。但这只能通过自由开放源代码的平台来实现,这些平台需要用全球各地的数据进行训练。仅靠美国西海岸一家公司的封闭环境是无法实现的。要让系统能够掌握印度的 700 种语言或印度尼西亚的 300 多种语言,这些平台最终必须以分布式方式进行训练,需要来自世界各地的贡献者参与其中。而且必须保持开放。

主持人:我知道你担心过早的监管会扼杀创新。你曾签署一封公开信,请详细谈谈你签署这封信的原因。

杨立昆:我实际上真正反对的是欧盟人工智能法案原始版本和行政令中设定的限制:如果训练模型使用超过 10 的 24 次方或 25 次方次浮点运算(flops),就必须获得政府许可或某种形式的授权。这种限制基于人工智能本质上具有危险性的观点,认为超过某个复杂程度就内在地具有危险性。我完全不认同这种做法。人工智能安全确实存在一些需要讨论的重要问题,但对竞争施加限制毫无意义。

主持人:你在社交媒体上曾指出,若没有签证政策,包括你在内的许多科技界重要人物都不可能来到美国。在人工智能竞争中,什么因素可能损害我们的全球地位和人才策略?

杨立昆:确实,很多人都指出,我们正在自断前路,让人才难以获得签证留在这里。这简直就是一场障碍赛。我经历过这个过程——我是法裔美国人,说着带法语口音的英语。

主持人:你可以继续保持法语口音说话,这很迷人。

杨立昆:谁说不是呢?说回正题,美国的科技发展在很大程度上得益于吸引和引进来自世界各地的人才。此前就有提议,比如让在美国大学获得研究生学位的人更容易留下来,至少在找到工作后能有一段时间留在这里,直到他们能够使身份更加稳定。事实上,我认为这项政策应该扩展到其他地方的高等学位获得者,或是有其他证明的人才。现在确实存在获得绿卡的途径,但程序极其复杂,耗时很长,结果也充满不确定性。这让许多人望而却步。

3d79c014ce272e34099f936f02d600b5.jpeg

下一代系统不仅仅基于预测下一个词

主持人:最近,许多大型科技公司都推出了新的大语言模型(LLM)更新、人工智能助手或相关功能。我想了解一下 Meta 目前的工作情况。你们发布了 Llama 3.3,请谈谈它的功能,并请你诚实地与其他模型进行比较,它的表现如何?

杨立昆:作为科学家,诚实是必须的。Llama 与其他模型最大的区别在于它是免费和开放的。开源软件是指向用户提供源代码的软件。这意味着你可以修改它,自行编译。你可以免费使用它。在大多数许可证下,如果你对软件进行改进并想将其用于产品中,你也必须以源代码的形式公开你的改进。这种方式使平台类软件能够快速发展,这种分发方式已经取得了惊人的成功。

整个互联网都运行在开源软件之上。全球绝大多数计算机都采用 Linux 系统,除了少数台式机和 iPhone 之外。想想看:你汽车中的计算机、WiFi 路由器、手机信号塔……如果你使用的不是 iPhone,那么你的手机很可能运行着 Linux 系统。你的汽车里可能就有十台运行 Linux 的计算机。

这种成功是有原因的,因为它是一个平台。人们需要能够修改它,使其更安全、更可靠,让它能在各种硬件上运行。这不是设计缺陷,而是市场力量自然而然地推动行业在平台层面选择开源代码。

在人工智能领域,开源的概念会更复杂一些。构建人工智能系统首先需要收集训练数据,然后在这些数据上训练所谓的基础模型(foundation model)。训练代码和数据通常是不公开的。例如,Meta 并不发布 Llama 模型的训练数据和大部分训练代码。

之后,我们可以发布训练好的基础模型。这就是 Llama 的本质。它附带开源代码,允许你运行系统并按照自己的需求进行微调。你无需向 Meta 付费或请求许可。这种开放性存在一些限制,主要是出于法律环境的考虑。而关键在于,主流模型现在都是封闭的。来自 OpenAI、Anthropic 和谷歌的模型都是封闭的。

主持人:从你的角度来看,他们为什么选择闭源?

杨立昆:很可能是为了获取商业优势。如果你想直接从这类产品中获取收入,而且你认为自己在技术上领先,或者认为自己能够保持技术领先,并且这些服务是你的主要收入来源,那么保持封闭可能是有道理的。

但 Meta 的情况不同。对 Meta 而言,人工智能工具只是整体用户体验的一部分,这些体验都是通过广告来支持的。因此这不是主要的收入来源。相反,我们认为开放平台的进步会更快。事实上,我们已经看到了这一点——有许多创新并非来自我们的构想,也不是我们有能力开发的,而是因为其他人可以获取 Llama 系统,进行实验并提出新的想法。

主持人:有人批评说,你们是因为落后才选择开源路线,这是追赶的策略。对于来自竞争对手的这种说法,你如何回应?

杨立昆:这其中有一段有趣的历史。首先,你要明白,除了谷歌之外,业界所有公司构建人工智能系统时都使用一个名为 PyTorch 的开源软件平台,这个平台最初是由 Meta 开发的。Meta 后来将其所有权转移给了 Linux 基金会,因此现在已不属于 Meta。但 OpenAI、Anthropic 等公司都在使用 PyTorch。可以说,如果没有 Meta,就不会有现在的 ChatGPT 和 Claude 这些系统,至少不会达到现在的水平。ChatGPT 这类工具所使用的底层技术是在不同机构开发的。OpenAI 在还不那么保密的时期也做出过贡献。

主持人:“当他们还不保密的时候”。

杨立昆:是的,因为他们在过去三年左右变得保密了。谷歌也开始保密,虽然不是完全保密。而 Anthropic 从一开始就不公开。他们都试图在保密的环境下推进技术发展。

在 Meta,我们有一个相当大的研究团队。我们还有一个专门从事生成式人工智能的应用研究和高级开发组织。研究组织的名称是 FAIR,现在这个名称代表“基础人工智能研究”(Fundamental AI Research)。这个团队有 500 人。我们正在研究的是下一代人工智能系统,超越大语言模型和聊天机器人的范畴。

主持人:这就是所谓的大概念模型(Large Concept Model, LCM),对吗?

杨立昆:LCM 只是一篇特定的论文里提到的特定概念。

主持人:请解释一下这与大语言模型(Large Language Model, LLM)有什么不同。你还说过自回归式大语言模型(autoregressive LLMs)正在达到性能瓶颈。OpenAI 的伊利亚·苏茨克韦尔(Ilya Sutskever)最近也说过类似的话。

杨立昆:说到苏茨克韦尔,他已经不在 OpenAI 了。

主持人:对,他离开了。这似乎是 OpenAI 的常态——人们离开后创建自己的公司。

杨立昆:是的,他现在的公司似乎叫做 Safe Superintelligence。这个概念很有趣。过去有人认为,只要把像 ChatGPT 这样的大语言模型扩大规模,用更多数据训练,配备更强大的计算能力,就能自然而然地产生人类水平的智能。我从未相信这种观点。伊利亚曾经是这一理念的坚定支持者,但现在似乎也改变了看法。

主持人:没错,我们已经触及到极限了,而且没有更多的数据了。

杨立昆:很显然,这些系统的性能正在达到天花板,因为我们基本上用尽了可获取的自然数据。目前所有的大语言模型都在使用互联网上公开可用的文本进行训练,我们很难获得更多数据了。虽然人们在尝试生成合成数据,但这并不能使性能提升 10 倍或 100 倍。因此,我们正在开发下一代人工智能系统,这些系统不仅仅基于预测下一个词。

大语言模型之所以被称为大语言模型,是因为它们基本上是在训练预测文本中的下一个词。我们通常收集大约 20 万亿个词,这是经过筛选的互联网上所有公开可用文本的规模。我们用这些数据训练一个具有数十亿或数千亿可调参数的巨大神经网络,仅仅是为了预测下一个词。

给定几千个词的序列,系统能否预测下一个出现的词?虽然无法做到完全准确,但这些系统可以预测词的概率分布,这可以用来生成文本。这就是所谓的自回归(autoregressive)部分。你输入一个词序列,系统预测下一个词,然后将这个预测结果输入系统,再预测下一个词,如此循环往复。所有模型都是这样工作的。

但这种方法无法保证生成的词序列是有意义的,不会产生虚构内容或编造信息。因此,业界一直在努力微调这些系统,通过人工反馈训练它们执行特定任务,避免产生无意义的内容。同时,我们也在训练系统在不确定答案时查询数据库或搜索引擎。这就需要系统能够判断自己是否知道答案,有时还需要生成多个答案并选择其中最好的。但从根本上说,这不是未来系统的运作方式。

2d9fb8f2e86e787234b17b34cd41fcc3.jpeg

Meta 的 5-10 年计划

主持人:很多人都提到过智能体(Agent)的概念。我想萨蒂亚·纳德拉是第一个提出这个观点的人。上周,Meta 发布了 Meta Motivo,这是一个制作更逼真数字化身的工具。我觉得这是扎克伯格再次尝试推动元宇宙(metaverse)发展。但请解释一下这到底是什么。我不太理解,因为你们投入了大量资金来开发这些技术,目标不仅仅是改进广告服务,一定还有更宏大的目标。

杨立昆:让我透露一个秘密——我现在戴着智能眼镜。

主持人:是的,我也有一副。

杨立昆:这副眼镜配备了摄像头。如果你微笑,我就能给在座的各位拍照。

主持人:这显示了我们已经取得的进步。我还记得我拥有的第一副谷歌眼镜,但那与现在的水平相去甚远。

杨立昆:关键在于,展望未来 5 到 10 年,我们将随身携带智能眼镜,可能还有其他智能设备。它们都将配备人工智能助手。这副眼镜就已经有了。

主持人:我可以通过这副眼镜与 Meta AI 对话,对吧?

杨立昆:这些设备将在我们的日常生活中为我们提供帮助。我们需要这些系统具备类人智能,达到人类水平的智能,在某些方面甚至超越人类。但现在我们离这个目标还很远。有些人让我们相信我们已经接近所谓的通用人工智能(AGI)了,但实际上我们还远未达到。当我说“很远”时,并不是指几个世纪那么久,可能不需要几十年,但至少需要几年时间。说“至少几年”的原因是这可能比我们想象的更难。

我们可以从以下现象看出这一点:现在我们有能够通过律师资格考试或大学考试的大语言模型,但我们在哪里可以找到能够打扫房间、收拾餐桌、装载洗碗机的家用机器人呢?这不是因为我们无法制造机器人,而是因为我们还不能让它们变得足够智能。事实证明,对人工智能系统来说,理解物理世界比理解语言要困难得多。这听起来可能有违直觉,因为人类认为语言是智能的巅峰。实际上,语言相对简单,因为它只是一系列离散符号。而现实世界,我们还远未掌握。

因此,我们正在研究新的架构和系统,让它们能够理解物理世界,并像婴儿和幼年动物那样通过观察和互动来学习理解物理世界。这些系统最终将能够规划一系列行动以实现特定目标。这就是我们所说的智能体系统。一个智能体系统能够规划一系列行动以达到特定结果。目前,人们谈论的智能体系统实际上并不具备这种规划能力,它们某种程度上是在投机取巧,只是学习了一些行动模板。

主持人:是的,但你们也在开发——据报道,Meta 正在开发人工智能搜索引擎。我猜想你们是想超越谷歌搜索,对吗?这是真的吗?

杨立昆:实际上,搜索功能是智能助手系统的一个必要组成部分。当你与助手对话时,显然需要搜索事实信息,并能追溯到信息源,这样用户才能信任结果。因此,搜索引擎是完整人工智能系统的一个组成部分。

主持人:换句话说,就是要绕过谷歌的系统。

杨立昆:目标并非直接与谷歌竞争,而是为需要人工智能助手的用户提供服务。

主持人:大多数人认为 Meta 在人工智能竞赛中落后了,特别是在 ChatGPT 引发轰动之后。但扎克伯格刚刚表示,Meta AI 已有近 6 亿月活跃用户,有望在年底成为全球使用最广泛的人工智能系统。这与人们在 ChatGPT 上的使用方式很不同,后者是一个带搜索功能的独立应用。对你们来说,除了提高广告效率之外,它的战略意义是什么?对 Meta 意味着什么?

杨立昆:这是对未来的一个愿景:每个人都将随身携带人工智能助手。这是一个全新的计算平台。我们过去称之为元宇宙(metaverse)。这些眼镜最终将配备增强现实(augmented reality)显示屏。在最近展示的猎户座项目(Orion project)中已经有了相关演示。目前我们还无法将其做得足够便宜以供销售,但最终这项技术会实现的。这就是我们的长远愿景。

主持人:所以它会成为我们的助手。

杨立昆:没错,它将成为我们的助手。就像每个人都会配备一个虚拟助手,相当于一位人类助手。未来,这可能就像拥有一个由比你更聪明的专家组成的团队为你工作。

主持人:这很好,但目前人类助手的成本要低得多。现在,Meta 预计支出在 380 亿到 400 亿美元之间。谷歌表示今年将投入超过 510 亿美元。分析师预测微软的支出将接近 900 亿美元。这样的投入是否太多了?Salesforce 的马克·贝尼奥夫最近告诉我,这是一场竞相逐底的比赛。你们是否担心被其他公司的投入超越?仅仅为了给我一个更智能的助手,这似乎不是一个很好的商业模式。但我不清楚,毕竟我当年拒绝了 Facebook 早期的工作邀请。所以别问我意见。请继续说。

杨立昆:这是一项长期投资。我们需要基础设施来为不断增长的用户群提供运行速度合理的人工智能助手服务。正如你所说,现在已有 6 亿人在使用 Meta AI。还有一个有趣的数据:作为 Meta AI 基础的开源引擎 Llama,已经被下载了 6.5 亿次,这个数字令人惊讶。说实话,我也不清楚这些下载者都是谁。

基于 Llama 开发的公开可用或开源项目已达 85,000 个。这些项目很多都来自世界各地,比如有人在训练 Llama 说塞内加尔或印度的各种语言。

主持人:所以你认为这些投资并非浪费?

杨立昆:确实不是浪费。因为在一两年内,将会有大量人口日常使用这些人工智能助手,而且这个数字还在增长。这些系统越强大,对用户就越有价值,但同时在计算上的开销也越大。因此,这些投资本质上是对基础设施的投资。

主持人:这些投资都来自私营企业。你曾说过,将专有人工智能模型集中在少数几家公司手中是一个巨大的危险。当然,也有人批评开源模型,担心不法分子可能利用它们传播虚假信息、进行网络战争或生物恐怖主义。考虑到你们正在以开源方式提供这些强大的工具,Meta 是否应该承担起防范这些风险的责任?

杨立昆:这确实曾引发激烈讨论。在 2023 年初,当我们开始发布第一个 Llama 模型时,它并非完全开源。使用者需要申请许可,证明自己是研究人员。这是因为当时的法律环境尚不明确,我们也不确定人们会如何使用它。

后来,我们收到了来自业界的大量请求,希望我们开源下一个版本,因为这将催生一个全新的产业,使众多初创企业和新产品得以诞生。于是我们在内部进行了为期数月的深入讨论,每周召开两小时会议,由包括扎克伯格在内的 40 人参与,严肃探讨安全性、法律环境等各方面问题。最终,扎克伯格做出决定:“好,我们要开源 Llama 2。告诉我该如何做。”这件事在 2023 年夏天完成,此后确实推动了整个行业的发展。

主持人:你怎么看待中国 AI 公司用开源的 Llama 模型训练自己的模型?

杨立昆:这个问题其实相当不值得担忧。因为他们自己就有许多优秀的中国开源模型,比如阿里巴巴的通义千问(Qwen),它的性能与最好的模型不相上下。中国拥有出色的研究人员和工程师,他们开源了许多自己的模型。

主持人:你是说这不是 Meta 的责任?你们提供工具,至于人们如何使用,那是另外的事?

杨立昆:在某种程度上当然是我们的责任。因此,在 Llama 团队和生成式人工智能部门,我们投入了大量精力对发布的系统进行红队测试(red team),确保它们在发布时至少具有最低限度的安全性,不会产生过多的有害内容。这确实是一项重要工作。我们甚至最初将 Llama 交给 DEF CON 的黑客们,请他们尝试用它做些坏事,也就是所谓的白帽黑客测试。结果是,在近两年来我们发布的所有模型中,我们还没有发现任何真正严重的滥用情况。

主持人:我想在“还没有”这个词后面加个着重号。

杨立昆:如果真要发生的话,那早就已经发生了。公众可能没有意识到,在 ChatGPT 之前,开源的大语言模型就已经存在多年了。记得当初 OpenAI 推出 GPT-2 时宣称:“我们不会开源它,因为它太危险了。人们可能用它在互联网上散布虚假信息等等。”

我当时嘲笑了这个说法,因为这确实有点荒谬。那时候系统的能力并没有那么强大。我的意思是,这类系统已经公开使用好几年了,却没有发生什么真正严重的事故。人们确实担心这些技术会被用于在美国大选期间散布虚假信息。今年全球有三场重要选举,人们也担心它会被用于网络攻击等用途,但这些情况都没有发生。

主持人:对这些潜在问题保持警惕总是好的。

杨立昆:是的,我们确实需要保持警惕,尽己所能防止这些事情发生。关键是,散布虚假信息根本不需要这些人工智能系统,Twitter 就是很好的例证。

911f02f42e3202feedf3c35cb5edaf51.jpeg

像 Linux 和维基百科一样运营 AGI

主持人:最近,你因为表示文化机构、图书馆和基金会应该向免费和开放的人工智能基础模型(如 Llama)开放其内容而受到不少批评。这是针对哈佛大学发布的一个包含超过百万本图书的新数据集的回应。但那些都是公共领域的作品,而不是在世作者、艺术家和学者的作品。谈谈人们对这些人工智能模型无偿获取所有文化知识的担忧,这些知识来自创作者、作家和研究人员,而他们却得不到任何认可。互联网公司因为数据抓取而闻名,我记得沃尔特曾称它们为“贪婪的信息窃贼”,虽然他可能是在说谷歌。请谈谈这场争议。

杨立昆:撇开这些法律问题不谈,如果我们期望人工智能成为人类知识的储存库,那么所有人类知识都必须可用于训练这些模型,对吧?而大部分知识要么尚未数字化,要么已经数字化但未公开。这里说的不一定是受版权保护的材料,比如法国国家图书馆的全部馆藏,其中很多已经数字化但不能用于训练。

我来自布列塔尼,那是法国西部地区。在那里,直到我的曾祖父那一代人还在使用布列塔尼语(Breton)。现在这种语言正在消失,日常使用人数只剩约 3 万人,这个数字很小。如果想让未来的大语言模型能说布列塔尼语,就需要足够的训练数据。这些数据从哪里来?需要文化非营利组织收集他们拥有的所有相关材料,可能还需要政府的帮助。

这些机构会说:“请使用我们的数据,我们希望你们的系统能说布列塔尼语。”当然,他们可能不愿意直接把数据交给美国西海岸的大公司。但我设想的未来是——请注意,这只是我个人观点,不代表公司政策——最好的方式是通过分布式方式训练一个人工智能系统,一个共同的人工智能系统,作为人类知识的储存库。这意味着在世界各地设立多个数据中心,使用本地数据来为全球系统做贡献。你不需要复制数据。

主持人:但谁来运营这个全球系统呢?

杨立昆:谁在运营 Linux?谁在支持维基百科?

主持人:我懂了,所以这应该属于全人类的职责。

杨立昆:或者互联网档案馆(Internet Archive),对吧?以 Linux 为例,它主要是由各公司雇员支持的,这些公司允许员工贡献他们的工作成果。我们可以建立类似的系统,让每个人都为这个全球模型做出贡献。

主持人:这就是为其他人服务的人工智能。

杨立昆:对,是为所有人服务的人工智能。当然这只是短期目标。

主持人:也就是说,不一定能产生直接的商业利益。

杨立昆:是的,但你可以在其基础上进行商业化。就像 Linux 一样,你不用为 Linux 付费,但如果你购买运行 Linux 的设备,比如安卓手机或者汽车上的触摸屏,你是在为这些设备付费。人工智能也会是同样的模式。人们可以这样做。基础模型将是开放和免费的。

主持人:但现在看起来似乎是少数几个势力在掌控一切。目前的情况确实如此。你描绘的愿景很美好,但现实并非如此。

杨立昆:但在我看来,这种变化是不可避免的。

00dc2021c61085edb565fb975d3ae71d.jpeg

“三教父”吵架

主持人:说到争议,你一直与其他人工智能领域的泰斗进行公开辩论。你似乎很喜欢辩论。与你共同获得图灵奖的杰弗里·辛顿(Geoffrey Hinton)和约书亚·本吉奥(Yoshua Bengio)都在大声疾呼,警告人工智能的潜在危险,我认为他们的态度相当强烈。他们都呼吁政府加强监管和监督,包括对研发的监管。而你称他们的警告完全是“胡说八道”。我觉得你说得很直白。

你们在一项具体的监管尝试上产生了分歧,那就是美国加州的 SB1047 法案。辛顿和本吉奥都支持这项法案,而你却积极游说反对。你写道,监管研发将对人工智能系统产生“灾难性后果”。你措辞也很激烈。你说,“存在性风险的幻觉”是由一些“妄想的智库”推动的。请特别谈谈为什么你称这些担忧完全是胡说八道。顺便说一下,纽森州长否决了这项法案,但正在与斯坦福大学教授李飞飞等人合作对其进行修改。你为什么在这个问题上态度如此强硬?

杨立昆:我确实在这个问题上发言很多。杰夫(杰弗里·辛顿的小名)和约书亚都是我的好朋友,我们已经相识数十年。1987 年至 1988 年,我在杰夫·辛顿那里做博士后研究。所以我们已经相识 40 年了。约书亚也是如此,我第一次见到他时,他还是个硕士生,而我是博士后。我们一直在合作。我们一起获得这个奖项,是因为我们共同致力于重振现在所称的深度学习(deep learning)领域,这是当今许多人工智能技术的基础。所以我们在很多问题上都有共识,只是在少数几个问题上有分歧,这就是其中之一。

主持人:就是关于人工智能对人类生存的威胁。

杨立昆:对。杰夫认为现在的大语言模型具有主观体验(subjective experience)。我完全不认同这个观点。我认为他在这一点上完全错误。我们以前也在技术问题上有过分歧,只是没有这么公开。这不是我们第一次意见相左。我只是认为他这次的看法是错误的。但我们依然是好朋友。约书亚的观点略有不同,他更担心的是坏人利用人工智能系统做坏事。

主持人:我也同意他的观点。

杨立昆:说实话,这些危险已经被讨论了好几年,但被夸大到了荒谬的地步,以至于完全失去了意义。

主持人:你当时用的词是“妄想”。

杨立昆:我并没有说他们在妄想。我说的是那些更极端、推动像 SB1047 这样监管的人是妄想者。我是说,一年前,如果你问这些人“人工智能需要多长时间才会消灭我们所有人”,他们会说“五个月”。

主持人:显然,他们是错的。所以你说的是关于通用人工智能(AGI)的问题,以及我们离实现它还有多远。当人们听到这个,他们会想到《终结者》、《机器人总动员》之类的电影情节。辛顿和本吉奥认为实现 AGI 的时间可能只需要五年,而我们还没有做好准备。你说需要几年时间,如果不是十年的话。如果你判断错误,那么当它真的开始杀死我们时,你就真的大错特错了。你会说“看,我们还没死”,然后我们就死了。请说说为什么你一点都不担心 AGI 的风险?尤其是你的很多同行都不同意你的观点?

杨立昆:实际上,同意我观点的人比不同意的人要多得多。

主持人:我指的是业界顶层人物。

杨立昆:不,只是那些持不同意见的人因为极度恐惧而变得格外谨慎。如果我认为真的存在某种生存威胁,我当然也会非常积极地发声,试图警示所有人。

主持人:那么为什么你不——我明白你的意思。有人曾对我说,如果我不阻止山姆·奥特曼(Sam Altman),整个人类就会灭绝。我当时说:“这是《终结者》的剧情,而我不是琳达·汉密尔顿。”但请至少说说你为什么不担心。

杨立昆:首先,毫无疑问,未来某个时候,我们会拥有比人类更智能的人工智能系统。这是必然会发生的。是五年、十年还是二十年?这很难说。按照我们的——至少是我个人的设想,最早可能需要五六年时间。但可能需要十年,甚至更长时间,因为这可能比我们想象的更难。而且几乎总是如此——比我们预想的更难。

在人工智能发展的几十年历史中,人们总是严重低估了任务的难度。再说一次,我们还没有自动化机器人,我们还没有完全自动驾驶汽车。现在的人工智能系统有很多事情都做不到。在我们找到新的技术手段之前,我们甚至还没有走在通向人类水平智能的道路上。

一旦我们——也许几年后——找到了一个蓝图,有了一些可信的演示,表明我们可能找到了通向人类水平人工智能的路径——我不喜欢使用 AGI 这个术语,因为人类智能实际上是高度专门化的。我们认为我们拥有通用智能,但事实并非如此。

一旦我们有了这个蓝图,我们就能很好地思考如何使其安全。这就像回到 1920 年代,有人告诉你:“几十年后,我们将以接近音速的速度载着数百万人飞越大西洋。”然后有人会说:“天哪,你要如何确保这是安全的?”而当时涡轮喷气发动机还没有被发明。在没有发明涡轮喷气发动机的情况下,你怎么能让它变得安全呢?我们现在就处于这种情况。

而且,涡轮喷气发动机并不是被设计成不安全的。涡轮喷气发动机的可靠性令人难以置信。最近有统计数据显示,自上一次致命事故以来,美国航空公司载客飞行的总距离相当于 2.3 光年。这是一个惊人的数字,说明其非常安全。让人工智能变得安全意味着要以安全的方式设计这些人工智能系统。但在我们有设计方案之前,我们无法让它们变得安全。所以这个问题本身就没有意义。

主持人:你似乎不认为人工智能会想要统治人类。你谈到过这个观点。你说过现在的人工智能比家猫还笨。但不管人工智能是否有意识,如果它给人的感觉是真实的,这难道不重要吗?如果它很笨,或者不想统治我们,或者不想杀死我们,你认为对人工智能,也许是对人工智能研发,应该有什么限制呢?还是说你认为根本不需要限制?

杨立昆:对研发不需要限制。但是,如果你要推出一个家用机器人,这个机器人会为你做饭,你可能需要硬编码一些规则,比如当机器人手持刀具而周围有人时,它不能随意挥舞手臂之类的。这些是防护栏。

从某种程度上说,目前人工智能系统的设计本质上是不安全的。很多人可能会讨厌我这么说,但这些系统确实很难控制。你基本上必须训练它们表现得恰当。而我提出的另一种架构,我称之为目标驱动(objective-driven)架构,人工智能系统基本上是为了实现一个目标,它只能在一系列防护栏(也就是其他目标)的约束下完成这个目标。这将保证系统产生的任何输出或采取的任何行动都符合这些防护栏和目标,因此是安全的。

接下来的问题是:我们如何设计这些目标?很多人说:“我们从未做过这样的事。这完全是新领域。我们需要发明一门新的科学。”不,实际上我们对此很熟悉。这就叫做制定法律。我们对人类就是这样做的。我们制定法律,法律本质上改变了采取行动的成本。我们一直在通过制定法律来塑造人类行为,我们也会对人工智能系统这样做。区别在于,人类可以选择不遵守法律,而人工智能系统在设计上必须遵守。它没有选择的余地。

主持人:现在,辛顿和本吉奥都支持一封由现任和前任 OpenAI 员工签署的信,呼吁人工智能公司的员工有权警告技术带来的严重风险,而普通的举报人保护措施可能无法保护他们。你没有签署这封信。同时,我们看到欧盟出台了一些监管措施。他们区分了高风险人工智能系统和更通用的模型,禁止某些“威胁公民权利”的应用,比如面部图像识别,我想还包括你提到的那个想要用刀的机器人。什么样的模式可以让它更安全,让人们更——还是说,你是在建议我们等到坏事发生了再设置防护栏吗?要等到发生一些谋杀案再去限制吗?我不太明白。

杨立昆:不,这不是我的建议。禁止在公共场所进行大规模面部识别,这是件好事。像这样的措施完全有道理。而在某些令人尴尬的 AI 视频中替换某人的面部,这种行为或多或少已经是非法的了。我们有了实现这一点的工具并不会使其变得更加合法。可能需要针对这种行为制定具体的规则。这些我都没有意见。

我反对的是认为人工智能本质上具有危险性,需要监管研发的想法。我认为这种做法适得其反的原因是,在我之前谈到的开源平台的未来愿景中,这些规则将会适得其反。它们基本上会使开源对任何公司来说都变得风险太大。

主持人:这些私营公司就会控制一切。

杨立昆:没错。少数几家私营公司将控制一切。因此,我们想要的是开放平台,这些平台可以根据任何文化、价值体系、兴趣中心进行微调,这样世界各地的用户就有了选择,不必局限于使用少数几个助手。

主持人:这样他们就能避开被 OpenAI、微软、谷歌,可能还有亚马逊所支配。

杨立昆:还有 Anthropic。

主持人:我知道——Anthropic 和亚马逊有很深的合作。

d00951d7fb115d93f93fda15b2986068.jpeg

“三教父”吵架

主持人:你获得了 2024 年 VinFuture 奖,这个奖项表彰你对深度学习的变革性贡献。在你的获奖演讲中,你说人工智能的学习方式与人类或动物不同,后者从物理世界获取大量视觉观察。你曾经还说过,人工智能末日论者之所以持末日论观点,是因为他们不相信人性本善。而你相信人性本善——尽管从你的推特上看不出这一点,连我在推特上对埃隆·马斯克的态度都比你友善,这很不寻常。总之,从你的表现来看,你似乎很担心未来的发展。为什么我们应该认为人性本善?你认为这项技术在未来几年会如何发展?它会像人类或动物一样吗?还是会有所不同?

杨立昆:确实,我们终将拥有一些像人类和动物一样学习的系统,它们能像人类和动物一样高效地学习新技能和新任务,而这种学习速度说实话是惊人的。

主持人:我们还无法用机器复制这一点。

杨立昆:像特斯拉这样的公司拥有数十万甚至数百万小时的人类驾驶数据。他们可以用这些数据来训练人工智能系统,他们也确实这么做了。但这些系统仍然不如人类。我们还买不到真正的自动驾驶汽车或机器人出租车,除非使用一些变通方法。比如 Waymo 可以做到这一点,但需要很多技巧。同样,我们也买不到家用机器人,因为我们还不能让它们变得足够智能。

原因很简单。正如我之前所说,我们在所有公开可用的文本以及更多数据上训练大语言模型和聊天机器人。这大约是 20 万亿个词。每个词由三个字节表示,所以大约是 60 万亿字节。让我们将其四舍五入到 10 的 14 次方,也就是 1 后面跟着 14 个零。

现在,询问发展心理学家。他们会告诉你,一个四岁的孩子总共清醒时间约 16,000 小时。在这 16,000 小时里,视觉信息以每秒约 2 兆字节的速度传输到孩子的视觉皮层。这个计算基于以下事实:我们有 100 万条视神经纤维,每条纤维每秒传输约 1 字节的信息。我们有两只眼睛,所以大约是每秒 2 兆字节。做一下算术,16,000 小时的数据量,你得到的也是 10 的 14 次方字节。

这就是说,一个四岁的孩子通过视觉接收到的数据量,与最大的大语言模型通过文本接收的数据量相当。而阅读这些文本,我们任何人都需要几十万年的时间。这告诉我们,仅仅通过训练文本数据,我们永远无法达到人类水平的人工智能。

我们必须通过感知输入来训练,而这些数据实际上是无限的。16,000 小时的视频相当于 YouTube 上 30 分钟的上传量。我们拥有的视频数据远超过我们所需要的。因此,未来几年人工智能发展的重大挑战是让系统通过观察世界、观看视频,然后在世界中互动来理解世界是如何运作的。

这个问题目前还没有解决,但有很大可能在未来五年内会取得重大进展。这就是为什么你看到所有这些公司都开始研发人形机器人。他们现在还不能让这些机器人足够智能,但他们认为人工智能在未来五年内会取得足够的进展,到这些产品可以面向公众销售时,人工智能将足够强大。

主持人:现在我终于明白了这些智能眼镜的用意,并理解了 Meta 最终想做什么。接下来是观众提问环节,我们有两到三个问题。

观众:当你谈到治理时,看到你戴着这副眼镜,我最担心的是人工智能与空间计算和环境技术交叉时的治理问题。你能谈谈你对这个世界的展望以及我们在建立治理方面需要注意什么吗?

杨立昆:好的,我再次强调,我既不是产品专家,也不是政策专家。我从事的是人工智能基础研究。但是,你提到的谷歌眼镜失败了,主要是因为人们对其社交互动方面感到不适。奇怪的是,现在这些设备并没有引起类似的争议。当我给你拍照时,会有一个小灯亮起,所以我不能偷偷拍摄。这与用智能手机拍照没有太大区别。

主持人:这就是你的拍摄方式吗?

杨立昆:不,我不会这样做。我会在拍照前告知对方。我非常反对在公共场所进行大规模面部识别这类侵犯隐私的行为。但我没有什么灵丹妙药可以解决这些问题。

观众:基于我对认知科学的初步了解,我真正感兴趣的是为理解通用人工智能(AGI)的主观性建立基础。在什么时候,更重要的是,通用人工智能如何才能真正获得类似人类的感知能力,而不仅仅是在人类水平上处理信息?

杨立昆:好的,我要说一些可能有争议的观点。在我们计划在未来几年构建的人工智能系统的设计蓝图中,这些系统将具有情绪(emotions)。这是系统设计中不可分割的组成部分。

为什么它们会有情绪?因为它们将由目标驱动。你给它们一个需要完成的目标或任务。它们的目的就是在硬编码在设计中的防护栏约束下完成这个任务。为此,它们需要几个组件。

第一个必需的组件是一种判断我们给它们的目标是否已经实现的方法。它们还需要我们称之为世界模型(world model)的东西。世界模型是我们人类前额叶皮层中具有的功能,让我们能够想象我们的行动会带来什么后果。这使我们能够规划一系列行动来实现特定目标。

现在,如果你具备提前预测一系列行动将产生什么结果的能力,那么你就能预测目标是否会实现。这就让你能够预测结果是好是坏。如果你预测结果会很糟糕,你就会感到恐惧。如果你预测结果会很好,那就更像是兴奋。

因此,预测能力,以及为实现这些预测而采取行动的能力,会产生类似情绪的反应。所以,足够智能的人工智能系统,能够推理和规划。拥有世界模型的系统,将会具有情绪。

观众:我想请你谈谈一两个积极的例子。比如,在医学院里,我们竟然没有谈到 AlphaFold 这样的人工智能应用,这很奇怪。或者回到 Llama 3,最近英伟达的黄仁勋和印度的安巴尼讨论时,安巴尼说“如果没有看到 Llama 3,他就不会认为有可能教育整个印度”。所以,像这样的人工智能代理或导师对学生和教师来说可能很有意义。

杨立昆:Llama 系列模型是开源的,这使得人们能够根据特定的垂直领域应用或特定语言来自主微调它。比如,我们在塞内加尔的一位前同事创办了一家公司,提供能说法语、沃洛夫语和其他半打本地语言的医疗助手聊天机器人。

我们正在与印度的多个组织合作,确保 Llama 的下一个版本能够说印度所有 22 种或 29 种官方语言。这还只能覆盖印度 95%的人口。印度有 700 种语言,其中大多数是纯口语,没有书面形式。现在我们有了能够处理纯口语的技术,这是令人惊叹的。

上周我在越南领奖时,也看到了类似的努力,让系统能说越南语。我们在世界各地都看到这种情况。人们正在对这些模型进行微调,用于我们从未想到可能的用途。我认为我们需要更有意识地建立全球伙伴关系,让这些系统从一开始就能作为基础模型说世界上所有的语言,理解所有的文化。这样更容易让专门化系统的开发工作取得成功。

我们做了一个实验,把这些智能眼镜给印度农村地区的人使用。他们非常喜欢,因为他们可以用自己的语言交谈。他们可以看着一株植物,询问这株植物有什么病,如何治疗,一周后天气会怎样,诸如此类的问题。所以这将产生广泛的影响。

观众:你多次提到分布式系统,基本上是为了达到人类水平的人工智能。我问这个是因为我今年花了很多时间训练人工智能模型,开源和封闭的都有。它在英语和其他一些语言方面表现得很好。但上周我访问约旦时,ChatGPT 和其他大语言模型的表现都很差。我觉得我过度承诺了,因为我对人们说“AI 将解决世界问题”。你认为这种情况将如何发展?

杨立昆:我的设想是通过这种分布式方式实现。你提到的那条推文的目的就是让世界各地的人们聚集在一起采取行动,在条件允许的情况下建立本地的人工智能数据中心。在这个过程中,政府可能需要发挥重要作用,私营企业也是如此。收集所有可能有用的文化材料,无论是布列塔尼语还是世界上其他语言。但人们已经在这样做了。

实际上,穆罕默德·本·扎耶德人工智能大学最近发布了一个基于 Llama 3 的衍生模型。他们对 Llama 3 进行了微调,使其能够说阿拉伯语,至少是阿联酋使用的阿拉伯语方言,并提供医疗协助。这是一个多模态系统,也可以分析医学图像等。如果不是开源模型,他们就无法做到这一点。

主持人:最后一个问题——我遇到过很多像你这样的人,他们总在歌颂让一切变得更好,歌颂未来的每个人都会和睦相处。但这一次,为什么我们要相信你呢?

杨立昆:相信我?

主持人:是的,相信你个人。

杨立昆:我不是亿万富翁。这是第一点。虽然我的经济状况还不错。

主持人:我猜也是。

杨立昆:我首先是一名科学家。如果我在科学诚信方面没有一定水准,我就无法直视镜中的自己。所以你可以相信我不是在撒谎,我也不是出于贪婪之类的不良动机。但我有可能是错的。你必须接受你可能是错的这个事实,这就是科学,正确的想法是通过不同观点的碰撞而形成的。

但也请看看现在的世界,看看那些说人工智能会因为充斥着虚假信息或产生仇恨言论而摧毁社会的人的说法。我们实际上根本没有看到这种情况,是人在制造仇恨言论,是人在制造虚假信息,他们试图用各种方式传播这些内容,而不是 AI。

现在,我们对抗这种行为的最好武器是人工智能系统。在 2017 年,我们做不到这一点。2017 年时,人工智能技术还不足以让 Facebook 和 Instagram 检测出世界各种语言中的仇恨言论。2017 年底,人工智能系统自动删除的仇恨言论比例约为 23%。到 2022 年底,五年后,这个比例达到了 95%。这期间发生的变化就是人工智能的进步。所以人工智能不是人们用来制造仇恨言论或虚假信息的工具,实际上它是对抗这些行为的最佳手段。你需要的是:确保好人手中的人工智能比坏人手中的更强大。

对话视频链接:https://www.youtube.com/watch?v=UmxlgLEscBs

阅读报告全文,请访问欧米伽研究所的“未来知识库”

https://wx.zsxq.com/group/454854145828

54ff89b9a87ab5bd3d842c25b7736448.jpeg

未来知识库是“欧米伽未来研究所”建立的在线知识库平台,收藏的资料范围包括人工智能、脑科学、互联网、超级智能,数智大脑、能源、军事、经济、人类风险等等领域的前沿进展与未来趋势。目前拥有超过8000篇重要资料。每周更新不少于100篇世界范围最新研究资料。欢迎扫描二维码或访问https://wx.zsxq.com/group/454854145828 进入。

bc5220a31d08e68386b131550d450b55.jpeg

截止到11月25日 ”未来知识库”精选的100部前沿科技趋势报告

  1. Air Street Capital《2024 年人工智能现状报告》

  2. 未来今日研究所:2024 技术趋势报告 - 广义计算篇

  3. 科睿唯安中国科学院 2024 研究前沿热度指数报告

  4. 文本到图像合成:十年回顾

  5. 《以人为中心的大型语言模型(LLM)研究综述》

  6. 经合组织 2024 年数字经济展望报告加强连通性创新与信任第二版

  7. 波士顿咨询 2024 全球经济体 AI 成熟度矩阵报告

  8. 理解世界还是预测未来?世界模型的综合综述

  9. Google Cloud CSA2024 AI 与安全状况调研报告

  10. 英国制造商组织 MakeUK2024 英国工业战略愿景报告从概念到实施

  11. 花旗银行 CitiGPS2024 自然环境可持续发展新前沿研究报告

  12. 国际原子能机构 2024 聚变关键要素报告 - 聚变能发展的共同愿景

  13. 国际可再生能源署 IRENA2024 年全球气候行动报告

  14. Cell: 物理学和化学 、人工智能知识领域的融合

  15. 智次方 2025 中国 5G 产业全景图谱报告

  16. 未来今日研究所:2024 技术趋势报告 - 移动性,机器人与无人机篇

  17. Deepmind:AI 加速科学创新发现的黄金时代报告

  18. PitchBookNVCA2024 年第三季度全球风险投资监测报告

  19. 德科 2024 年未来全球劳动力报告

  20. 高工咨询 2024 年协作机器人产业发展蓝皮书

  21. 国际能源署 IEA2024 年全球能源效率报告

  22. 基因慧基因行业蓝皮书 2024 - 2025

  23. 普华永道 PwC2024 全球经济犯罪调查英国报告 - 智对风险直面挑战

  24. 中国互联网协会 2024 面向未来网络的数字孪生城市场景应用白皮书

  25. 中移智库 2024 先进感知新技术及新应用白皮书

  26. 智次方研究院 2025 中国 AIoT 产业全景图谱报告

  27. 未来今日研究所:2024 技术趋势报告 - 人工智能篇

  28. 国际电联:迈向衡量数字经济的通用框架的路线图

  29. 联合国粮食与农业组织:2024 年世界粮食安全和营养状况

  30. 大语言模型综述

  31. 李飞飞等,AI 智能体:探索多模式交互的前景综述

  32. 哈尔滨工业大学 - ChatGPT 调研报告

  33. 2024《美国核部署战略报告》最新文件

  34. 清华大学:AIGC 发展研究 3.0 发布版 b 版

  35. OpenAI:2024 年 OpenAI o1 大模型技术报告

  36. Verizon2024 年世界支付安全报告

  37. 皇家学会哲学学报 从复杂系统角度评估人工智能风险

  38. 复旦大学 大模型 AI 代理的兴起和潜力:综述

  39. 经合组织 OECD2024 年气候行动监测报告

  40. Wevolver2024 年边缘人工智能现状报告 - 探索各行业边缘 AI 应用动态

  41. 2024 全球人形机器人产品数据库报告 - 人形机器人洞察研究 BTIResearch

  42. 《全球金融稳定报告》 把舵定航 不确定性、人工智能与金融稳定

  43. 瑞士洛桑联邦理工学院 《人工智能中的 - 创造力:进展与挑战》

  44. 《你所需要知道的理 - 论:人工智能、人类认知与决策》牛津大学最新 53 页报告

  45. 世界经济论坛 新兴技术时代的网络弹性导航:应对复杂挑战的协作解决方案 2024

  46. ADL 理特咨询 2024 汽车出行未来展望报告

  47. 2024 中国硬科技创新发展白皮书 - 开辟未来产业新赛道

  48. 科学时代的大语言模型中的人工智能

  49. Gartner2025 年重要战略技术趋势报告

  50. CBInsights2024 年第三季度全球人工智能投融资状况报告

  51. TrendHunter2025 年全球趋势报告 - 全行业顶级创新和变革趋势前瞻

  52. 天津大学 2024 大模型轻量化技术研究报告

  53. 欧洲海洋局 2024 导航未来报告将海洋置于更广泛的地球系统中第六版

  54. 美国安全与新兴技术中心 2024 AI 生成代码的网络安全风险研究报告

  55. 国际原子能机构 2024 年世界聚变展望报告

  56. 复旦大学 2024 大语言模型的能力边界与发展思考报告

  57. 安盛 AXA2024 年气候与生物多样性报告气候过渡计划路线图

  58. YouGov2024 美国公众对人工智能 AI 的态度调研报告

  59. 麦肯锡中国报告:《中国与世界》完整版

  60. 麦肯锡全球研究所 2024 下一代竞技场报告 - 重塑全球经济的 18 个新兴行业领域

  61. Project Sid,一个旨在模拟多智能体交互以研究 AI 文明的项目

  62. 德国研究与创新专家委员会 德国研究创新与科技成果报告

  63. 2024 年欧洲关键产业的科技重塑研究报告

  64. 智能体专题报告之二 - 智能体时代来临具身智能有望成为最佳载体

  65. ActivateConsulting 2025 年顶级技术和媒体发展趋势报告

  66. 兰德 全球灾难风险评估

  67. 斯坦福李飞飞 《AI agent 综述》Agent AI 开启多模态交互新纪元

  68. 中国联通研究院 2024 中国生成式人工智能应用与实践展望白皮书中文版

  69. 普华永道 2024 第五次工业革命研究报告迈向弹性可持续和以人为本的未来

  70. 大成 Dentsons2024 年全球智慧城市与互联社区智库年度报告

  71. TechUK2024 量子技术挑战与机遇并存构筑量子韧性的策略与实践研究报告

  72. Emakina 将塑造 2024 年的技术趋势报告

  73. 图灵奖得主 Yann LeCun《机器如何才能达到人类智能水平?》——Yann LeCun, 附 Slides 及视频

  74. 华为:2024 鸿蒙生态应用开发白皮书 V3.0(最新版)

  75. CASA:2023 第三代半导体产业发展报告

  76. 大型视觉语言模型中幻觉现象的综述

  77. IEA PVPS:2024 光伏应用趋势报告(英文版)

  78. ABI Research:82 个将会或不会在 2024 年发生的技术趋势白皮书

  79. 《美国反无人机系统未来趋势报告(2024 - 2029 年)》

  80. 《军事自主系统:未来之路》美空军

  81. 空间智能如何?牛津大学博士论文《深度具身智能体的空间推理与规划》

  82. 2024 低空经济场景白皮书 v1.0

  83. 战略与国际研究中心(CSIS)人类地月空间探索的总体状况研究报告(2024)

  84. Artificial Intelligence Review:人工智能与物理学相遇的综述

  85. 麦肯锡:全球难题,应对能源转型的现实问题

  86. 欧米伽理论,智能科学视野下的万物理论新探索(研究论文)

  87. Gartner 2025 年主要战略技术趋势研究报告

  88. 2024 人工智能国外大模型使用手册 + 中文大模型使用手册

  89. 详解光刻巨人 ASML 成功之奥妙 - 241015

  90. CB Insights:未来变革者:2025 年九大科技趋势研究报告

  91. 国际电信联盟 2023 - 2024 年联合国人工智能 AI 活动报告

  92. 《人工智能能力的人类系统集成测试和评估》最新 51 页,美国防部首席数字和人工智能办公室(CDAO)

  93. 2024 瑞典皇家科学院诺贝尔化学奖官方成果介绍报告

  94. MHP 2024 全球工业 4.0 晴雨表白皮书

  95. 世界经济论坛白皮书《AI 价值洞察:引导人工智能实现人类共同目标》

  96. 瑞典皇家科学院诺贝尔物理学奖科学背景报告资料

  97. AI 智能体的崛起:整合人工智能、区块链技术与量子计算 (研究报告,书)

  98. OpenAI o1 评估:AGI 的机遇和挑战(280 页)

  99. 世界知识产权组织:2024 年全球创新指数

  100. 美国白宫:国家近地天体防御策略与行动计划

上下滑动查看更多

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值