辛顿与李飞飞对谈:AI是否具备语言理解和推理能力?

0f7aa7cb310e227234af0fd784b265e5.jpeg

来源:语言学新得

本文节选自杰弗里·辛顿与李飞飞的对谈,深入探讨了AI基础模型的特征、语言理解和逻辑推理能力。通过两位AI巨擘的精彩对话,您将领略到AI技术的最新进展和未来趋势。本文内容权威、信息丰富,是不可多得的AI科普佳作。

3776110e412fd95bb583c2af3969c584.jpeg

英文编校与中文译注 陈国华 卢培培

1 本文选自Geoffrey Hinton in conversation with Fei-Fei Li — Responsible AI development. Arts & Science - University of Toronto (https://www.youtube.com/watch?v=QWWgr2rN45o, recorded October 4, 2023) 的文字自动转写。本文译者感谢北京大学詹卫东教授对译稿中多个术语译名的修改建议,同时感谢上海外国语大学金立鑫教授对译文提出的修改建议。

2025年1月7日,全球瞩目的2025消费电子展(Consumer Electronics Show,简称CES) 在拉斯维加斯开幕,当天英伟达创始人兼首席执行官黄仁勋发布了该公司研发的RTX50系列图形处理器(Graphics Processing Unit,简称GPU)及其衍生产品。这标志着AI的疆域已经从大语言模型(Large Language Model,简称LLM)拓展到了世界模型(World Model,李飞飞称之为大世界模型)。正如大语言模型实际是一种模拟器(simulator),模拟人类各种官能的神经网络对语言的认知和产出,世界模型也是一种模拟器,模拟人类这些系统的神经网络对物理世界的认知并将之化为实用。大家都知道ChatGPT是一种大语言模型,可是并非人人都知道它还是基础模型(foundation model,又称large X model,简称LxM),而世界或大世界模型也是一种基础模型。

2023年10月,多伦多大学艺术与科学部举办了一场杰弗里·辛顿和李飞飞的对谈,题目是“杰弗里·辛顿 2与李飞飞 3对谈:人工智能的负责任发展”。在这场长达近2个小时的对谈中,李飞飞提到她领导的世界实验室正在建设大世界模型。二人还交换了有关ChatGPT是否理解人类语言,是否具有思维能力的看法。关于ChatGPT的理解和思维能力,学界至今仍分为两派,以乔姆斯基为代表的主流语言学者和AI研究领域里的符号主义研究者是多数派,辛顿一直是少数派的代表。二人解释了什么是基础模型,并表达了对ChatGPT的理解能力和推理能力的看法。辛顿用一个类似脑筋急转弯的例子说明,ChatGPT不仅理解人类语言,而且具有一定的逻辑推理能力,也就是说ChatGPT的理解已经进入智能范畴;李飞飞却不以为然,但未加反驳。这场对谈是一堂信息量十足而且十分风趣的LLM科普课。

2 杰弗里·辛顿(Geoffrey Hinton),常简称杰夫(Geoff),多伦多大学校级荣休教授(University Professor Emeritus),与学生合作,改进了用于训练人工神经网络的反向传播算法,让机器实现了深度学习,之后又设计了亚历克斯网(AlexNet),在图像识别领域取得重大突破;2018年获图灵奖(计算机科学界的最高奖),2024年先后获都柏林大学学院尤利西斯奖章和诺贝尔物理学奖。

3 李飞飞(Fei-Fei Li),斯坦福大学计算机科学系教授,因建立对人工智能的发展产生重大影响的图像网(ImageNet)而成名,曾任斯坦福大学人工智能实验室主任和谷歌副总裁,现任斯坦福以人为本人工智能研究所(Stanford Institute for Human-Centered Artificial Intelligence)联合所长和视觉与学习实验室(Stanford Vision and Learning Lab)联合主任。

微信公众号Z Potentials 于2024年10月14日全文刊发了这场对话转写文本的中译文,标题是“AI教父Hinton与AI教母李飞飞首次公开对谈”(Faye Yu和Grace Bo 编译)。该译本很可能是机器翻译后稍加人工编辑和润色而成,没有注释,存在不少漏译和误译之处,例如将one-shot learning译成“一次学习”,将Bayesian framework译成“基础框架” 4。微信视频号“北清讲座”2025年1月8日转播了这场对谈,标题是“杰弗里·辛顿(2024诺奖获得者)聊人工智能)”。

4 这一误译并非完全是译者的责任,因为转写本原文里此处是Beijing model。Beijing显然不对,但我们试了各种办法也未能确定李飞飞说的那个听起来有点像Beijing的是哪个词。忽然想到何不求教于万能的ChatGPT?结果ChatGPT秒答是Bayesian,而且还详细解释了什么是Bayesian model。

我们征得辛顿和李飞飞授权后,将这场对谈中有关基础模型、AI的语言理解、AI的逻辑推理这三个议题的内容节选出来 5,核对音频,校勘文本,编译成中文,添加了3个小标题和十多个注释,以方便大家阅读和引用。

5 本节选分为3节,第1-2节从油管视频45:17处主持人乔丹·雅各布斯的提问开始,第3节从1:30:35处一位听众的提问开始。

本译注将正式刊发于《亚太跨学科翻译研究》2025年第十七辑。

基础模型的两个特征

  • 乔丹:能否给那些不熟悉的人介绍一下什么是基础模型(foundation model)

  • 飞飞:基础模型,有些人觉得里面得有转换器 6

  • 杰夫:它得是极大量的数据。

  • 飞飞:量非常大,用海量数据预先训练过。我认为基础模型最重要的一点是其对多种任务的泛化能力(generalizability)。我们不是训练它仅完成一种任务,例如机器翻译。在自然语言处理领域,机器翻译是一种非常重要的任务,但GPT这样的基础模型既能做翻译,也能与人对话,做总结等等。这就是基础模型;而且在多模态方面,例如视觉、机器人、视频等等,现在也有基础模型。

  • 杰夫:关于基础模型,还有一点非常重要。认知科学领域长期以来的一个普遍看法是,这些神经网络,如果你给它足够多的训练数据,就可以做复杂的事情,但它们需要多得可怕的训练数据。它们需要看过成千上万张猫图后才能学会识别猫;而人类的学习效率,就统计学意义而言,效率要高得多。也就是说,人类只需要很少的数据就能学会做这类事。这种观点现在已经不那么流行了。当时持这种观点的人是拿一个麻省理工学院本科生能学会做的事情与一个神经网络在有限数据的基础上从随机权重开始能学会做的事情相比。要想做一个公平的比较,我们可以拿一个已经在超大数据上训练过的神经网络基础模型,给它一个全新的任务,看它学会这个全新任务需要多少数据。这被称为少示例学习7。我们会发现,就统计学意义上的效率而言,在需要多少数据就能学会一项新任务方面,基础模型胜过人类。先天派的旧观念认为,人类生来就拥有大量先天知识 8,因此人类要远远胜过这些基础模型,因为基础模型只能从数据中学习一切。人们现在几乎已经放弃了那种想法,因为我们可以把一个新任务交给一个没有先天知识但经验十分丰富的基础模型,你会发现它不再需要大量数据就能高效地学习。

  • 飞飞:你知道吗,我博士论文研究的就是单示例学习。不过有趣的是,你甚至可以在贝叶斯框架 9里进行预训练,但只有在人工神经网络这种框架里进行预训练,才能真正实现多任务学习。

6 英文transformer,又译作转换模型,在计算机科学里指一种基于自注意(self-attention,多译成自注意力)机制的神经网络模型架构,用于自然语言处理、图形处理、科学建模和数据计算,由处理输入数据的编码器(encoder)和生成处理结果的解码器(decoder)构成,能对输入数据中字符(tokens)的位置信息进行编码,准确捕捉话语或语篇中词与词的长距离关系;其自注意机制使之能自主权衡句中不同单词的重要性并据此分配权重;其对数据的处理采用并行方式,能同时处理所输入的所有字符并可轻松扩大处理规模,从而极大地提高了大语言模型的效率和准确性。ChatGPT的最后三个大写字母代表Generative Pretrained Transformer,表明这是一种生成式经过预训练的转换器。

7 英文是few-shot learning,更常见的译法是少样本。这一术语源自对图形的人工智能识别研究,shot最初指某一物体的照片,few-shot learning指仅凭某一物体的少数几张照片就能让人工智能学会识别某一物体,后面提到的单示例学习(one-shot learning,更常见的译法是单样本)指仅凭一张照片就能让人工智能学会识别某一物体。

8 原文innatist idea指以柏拉图、笛卡尔为最主要代表人物的先验主义或理性主义学派提出的观念。该学派认为人的知识当中有一些(例如空间、时间、原因之类最基本的概念)不是后天学会的,而是像理性那样生来就有的,他们称之为先天知识(innate knowledge)。乔姆斯基是这一学派在当代最著名的代表人物。他认为人类的语言知识当中也有一些是人的生物禀赋(biological endowment)。他把这种知识称为普遍语法(universal grammar,详见Chomsky 1981: 232)。普遍语法由两种理论构成,一种是核心语法理论,另一种是扩展和修改核心语法的理论;前者决定着全人类独有的语言官能,后者决定着人们可接触到的各种特定语法各有什么类型特征。

9 原文Bayesian framework是计算机科学的一个术语,指一种统计推断方法,可结合先前的信息与现在的观察结果进行预测或决策,广泛应用于计算机科学、信号处理、机器学习在内的多个领域。

ChatGPT的语言理解

  • 乔丹:这种技术基本是在ChatGPT里实现了产品化,全世界用上它才不过10个月。ChatGPT发布时,你的反应是什么?我知道你的一部分反应是离开谷歌,要做一些不同的事。但当你第一次看到它时,你是怎么想的?

  • 杰夫:GPT-2给我们大家都留下了深刻印象,之后稳步改进。不过,在GPT-4,还有GPT-3.5发布前,我在谷歌内部看到了同样好的模型,比如PaLM 10,因此ChatGPT的发布本身并没有让我有多惊奇。倒是PaLM给我留下的印象更深刻,原因是它能解释一个笑话为什么好笑。我们知道,当它能解释一个笑话为什么好笑时,那它就真的理解了这个笑话。PaLM就能做到这一点。当然并非每个笑话它都能解释,但它能解释很多。

    在解释笑话为什么好笑这方面,这些模型做得已经相当不错了,但在讲笑话方面却仍很糟糕。这里有一个原因,即它们生成话语或语篇的方式是一次生成一个词。如果你让它讲个笑话,它会尝试讲出听起来像笑话的东西。它可能会说,“一个牧师和一只獾走进了一家酒吧”,这听起来有点像一个笑话的开头。然后它继续说一些听起来像是笑话开头的东西。但到了需要抖包袱的时候,由于它没有提前想好包袱是什么,只是试着让人觉得接下来会有包袱,结果最后抖出的包袱往往弱得可怜,因为它不得不临时找一个出来。因此,这些模型虽然能解释笑话(因为它们在回应前能看到整个笑话),却不会讲笑话。不过我们会解决这个问题。

    ……

    有一件事我很晚才意识到,它让我对AI社会影响的兴趣大了许多,这就是飞飞说的“数据的力量”。大型聊天机器人看到的数据比任何人能看到的数据都要大千万倍。聊天机器人之所以能做到这一点,原因就是我们可以将同一个模型复制成千上万份,每一份可以看一个不同子集的数据,它们根据其参数的调整从中获取梯度 11。所有模型都可以分享所有梯度,因此每个模型都能获益于所有其他模型从数据中提取的信息,而我们人类无法做到这一点。假设我们有1万个人,让他们分别去读1万种不同的书,每个人读完他那本书后,所有人会立马知道那本书的内容。假如真能那样,我们早就变得非常聪明了,而这正是这些模型正在做的事情,这使它们比我们强得多。

    ……

    我们交流知识的方式,简而言之,是大致这个样子。我说出一句话,你来弄明白你的大脑里得做哪些改变才能让你也说出这句话。当然,条件是你信任我。这件事我们也可以用这些模型来做。如果你想让一个神经网络架构知道另一个完全不同架构知道的事,你不能只是把权重给它。你得让一个架构模仿另一个架构来输出,这叫知识蒸馏 12,我们人类就是这样相互学习的。但这种学法效率很低,因为它受到句子信息容量 13的限制,一句话的信息容量只有几百比特(bits)。如果你有这种模型,即这种有上万亿个参数的数字代理程序 14,每个代理程序负责不同比特的数据,然后大家彼此分享梯度。这就等于它们在共享数万亿个数据。这样看来,我们是把某种共享数万亿比特数据的能力与某种分享数百比特数据的能力相比。神经网络在知识分享上远远胜过我们。

10 原文是Pathways Language Model的缩略形式,可以理解为路路通模型。这是谷歌开发的一个基于转换器(transformer)的人工智能大语言模型家族的名称,其转换器有5400亿个参数。

11 原文gradient指某一特征向量的逐渐增加或减少;向量(vector)指一个有大小和方向的量。

12 原文distillation指knowledge distillation。这是一种机器学习技术,用它可将大模型提取的知识转移到小模型里。在“蒸馏”过程中,大模型就像老师,小模型就像学生,研究人员用随机权重对学生模型加以初始化后,就用教师模型训练它,让它达到教师模型的输出概率。

13 原文bandwidth的字面义是‘带宽’。

14 英文是agent(多译作智能体),作为计算机科学术语,指一种用来执行某类任务的计算机程序或软件,可以置于机器人体内,成为其一部分;也可以作为应用软件,安装在电脑或手机里。

ChatGPT的逻辑推理

(答听众问)

  • 问: 为了评估大语言模型或通用代理程序(generalist agents),我们需要的评测基准(benchmark),不是那种5分钟的基准 15,而是更全面的基准,是什么? 

  • 杰夫: 这个问题问得非常好。不过我想回答一个不同的问题,这两个问题彼此有一种模糊的关联。这个问题是随着GPT-4一起出现的,即我们如何判断它聪明不聪明?具体而言,我曾和一位名叫赫克托·勒韦斯克(Hector Levesque)的同事聊过这个问题,他曾是多伦多大学计算机科学系的教师。他的想法和我的几乎截然相反,但他在思想上极为坦诚。他对GPT-4的行之有效感到惊奇,想知道它到底是怎么可能做到这一步的。于是我们聊了很多。我让他给我一些问题,拿来问GPT-4。他给了我一系列问题,这样我们就能判断GPT-4是否理解了自己说的话,是真的理解自己在说什么,还是只不过利用某种精巧的统计来预测下一个词?关于这一点,一种说法是,要想真正很好地预测下一个词是什么,惟一办法是理解这个人之前说的话。所以,理解是预测的前提。但是我们也可以在不理解的情况下做出挺不错的预测。那么,GPT-4真的理解了吗? 

    赫克托提出的问题是:“我家的几个房间刷的要么是白色,要么是黄色,要么是蓝色。我想让所有房间都变成白色,我该怎么办?”我知道GPT-4能回答这个问题,于是就给问题加大难度。我说:“我家的几个房间刷的要么是白色,要么是黄色,要么是蓝色。黄涂料一年后会褪色变白。我想让所有房间两年后都变成白色。我该怎么办?”我还问“为什么?”如果你问“为什么?”GPT-4就会给你解释。它顺着问题答道:“应该把蓝色的房间刷成白色;不用管黄色的房间,因为这些房间会褪色变白。”可见它对措辞非常敏感。如果我们不用“褪色”改用“变色”,情况另当别论。有人向我抱怨说“我试着问了,但它没答对。”他用的是“变色”而不是“褪色”。关键在于,我们把“褪色”理解成颜色改变后维持不变。但如果我们说“变色”,那它既会变色,又有可能再变回原色。所以,我们说的如果是“变色”而不是“褪色”,它自然不会给出相同的回答。这让我信服它确实理解了。它还做了其他很多事。最近有人提出了一个很好的问题,很多聊天机器人没有答对,回答问题的人当中有的也没有答对,但GPT-4答对了。问题是这样的:“赛丽有三个兄弟,每个兄弟有两个姐妹,赛丽有几个姐妹?”大多数聊天机器人都答错了。 

  • 飞飞: 那人类呢? 

  • 杰夫: 这个嘛,我刚在拉斯维加斯做了一场炉边对话,一位采访者让我举例说明聊天机器人答错了。我给他讲了这个例子,他的回答是“6个。”这让人有点尴尬。 

  • 飞飞:我们不会问他叫什么,开个玩笑而已。

  • 杰夫:不会的。因此人也会答错。但我不明白,如果不能进行一定程度的推理,聊天机器人怎么可能答对?它一定得设法建立某种模型。吴恩达 16有一些这方面的例子。比如下奥赛罗棋 17,即使你只给机器人输入棋子一步一步的走法,它也会在其内部建立一个如何下这种棋的模型。所以我认为聊天机器人确实真的理解自己说的话。 

  • 乔丹: 进一步说,这种理解是否超越语言界,进入了智能范畴? 

  • 飞飞:诶呀,没有。

  • 杰夫:是的。

  • 乔丹:你说“是的”?

  • 杰夫: 是的。我的意思是,我接受用图灵测试来测试智能。有些人只是在模型通过了图灵测试后才开始摒弃这种测试。

15 此处指英国数学家和计算机科学家图灵(Alan Turing,1912 – 1954)于1950年提出的一种机器智能测试法(时称模仿游戏)所规定的测试时间,即当一台隐身的机器在5分钟之内通过与人类进行书面问答所展示的智能行为让人类裁判无法可靠地判断它是机器还是人时,这台机器即可被认定为通过了测试,也就是说,它具备了人类的智能。(详见Turing 1950)

16 Andrew Yan-Tak Ng,英籍美国华裔计算机科学家和技术企业家,曾任斯坦福人工智能实验室主任、谷歌大脑(Google Brain) 创始人和主任、百度首席科学家,现任斯坦福大学计算机科学系兼职教授。

17 Othello,1883年发明于英国的一种外形和走法与围棋有些类似的棋,但每一棋子两面的颜色不同。因一方能在己方棋子将对方棋子前后夹住的情况下把对方棋子翻转成为己方棋子而起名叫翻转棋(Reversi)。1971年日本人长谷川五郎将棋的走法略做改变,并将棋子两面的颜色改为黑色和白色,因莎剧《奥赛罗》中的男主人公黑人奥赛罗听信部下挑拨怀疑白人妻子对自己不忠而最终将之掐死,于是将该游戏改名为奥赛罗。

参考文献

Chomsky, Noam. 1981. Knowledge of language: its elements and origins, Philosophical Transactions of the Royal Society of London. Series B, Biological Sciences 295 (1077): 223 – 234.

Turing, Alan. 1950. Computing Machinery and Intelligence, Mind 59 (236): 433–460.

译者简介

31cefe790103cec3001c9cf436dc9252.jpeg

陈国华,现任北京外国语大学外国语言研究所教授;1974年中国人民解放军洛阳外国语学院本科毕业,1985年北京外国语学院硕士毕业,1996年获英国剑桥大学英语语言学博士学位;历任《外语教学与研究》副主编;北京外国语大学英语系教授、副主任;北京外国语大学学位委员会委员和学术委员会委员;教育部人文社科重点研究基地中国外语教育研究中心研究员、主任、副主任;国务院学位委员会外国语言文学学科评议组(第5-6届)成员;英国语文学会理事会理事;广西师范大学漓江学者、北京外国语大学常青学者;主要研究语言学理论、英汉对比与翻译、双语辞典学。近4年的主要学术成果是陈国华译(2023)《大宪章》(商务印书馆(汉译世界学术名著丛书)、陈国华(2023)“《举业童子问》: 新发现的现存最早本土中文文法”、索绪尔原著,巴斯金英译,陈国华、卢培培导读并注释(2022)《普通语言学教程》(Course in General Linguistics)、威廉·莎士比亚著,安褚斯、维南德主编,陈国华中文总主编(2021 – 2022)《中文详注剑桥莎士比亚精选》(14卷)、陈国华等(2020)《新型初级汉英教学辞典编纂研究》、李腾龙、陈国华(2020)《基于西方语言学与传统文字学的汉字构字理据及排序研究》。

    卢培培,北京外国语大学中国外语与教育研究中心博士生。

阅读最新前沿科技趋势报告,请访问欧米伽研究所的“未来知识库”

https://wx.zsxq.com/group/454854145828

7ad677c3ac28018265f8a5a92cb6322d.jpeg

未来知识库是“欧米伽未来研究所”建立的在线知识库平台,收藏的资料范围包括人工智能、脑科学、互联网、超级智能,数智大脑、能源、军事、经济、人类风险等等领域的前沿进展与未来趋势。目前拥有超过8000篇重要资料。每周更新不少于100篇世界范围最新研究资料。欢迎扫描二维码或访问https://wx.zsxq.com/group/454854145828 进入。

aef734c1e0a0eaea6ae0dcd8c394d806.jpeg

截止到12月25日 ”未来知识库”精选的100部前沿科技趋势报告

  1. 2024 美国众议院人工智能报告:指导原则、前瞻性建议和政策提案

  2. 未来今日研究所:2024 技术趋势报告 - 移动性,机器人与无人机篇

  3. Deepmind:AI 加速科学创新发现的黄金时代报告

  4. Continental 大陆集团:2024 未来出行趋势调研报告

  5. 埃森哲:未来生活趋势 2025

  6. 国际原子能机构 2024 聚变关键要素报告 - 聚变能发展的共同愿景

  7. 哈尔滨工业大学:2024 具身大模型关键技术与应用报告

  8. 爱思唯尔(Elsevier):洞察 2024:科研人员对人工智能的态度报告

  9. 李飞飞、谢赛宁新作「空间智能」 等探索多模态大模型性能

  10. 欧洲议会:2024 欧盟人工智能伦理指南:背景和实施

  11. 通往人工超智能的道路:超级对齐的全面综述

  12. 清华大学:理解世界还是预测未来?世界模型综合综述

  13. Transformer 发明人最新论文:利用基础模型自动搜索人工生命

  14. 兰德公司:新兴技术监督框架发展的现状和未来趋势的技术监督报告

  15. 麦肯锡全球研究院:2024 年全球前沿动态(数据)图表呈现

  16. 兰德公司:新兴技术领域的全球态势综述

  17. 前瞻:2025 年人形机器人产业发展蓝皮书 - 人形机器人量产及商业化关键挑战

  18. 美国国家标准技术研究院(NIST):2024 年度美国制造业统计数据报告(英文版)

  19. 罗戈研究:2024 决策智能:值得关注的决策革命研究报告

  20. 美国航空航天专家委员会:2024 十字路口的 NASA 研究报告

  21. 中国电子技术标准化研究院 2024 扩展现实 XR 产业和标准化研究报告

  22. GenAI 引领全球科技变革关注 AI 应用的持续探索

  23. 国家低空经济融创中心中国上市及新三板挂牌公司低空经济发展报告

  24. 2025 年计算机行业年度策略从 Infra 到 AgentAI 创新的无尽前沿

  25. 多模态可解释人工智能综述:过去、现在与未来

  26. 【斯坦福博士论文】探索自监督学习中对比学习的理论基础

  27. 《机器智能体的混合认知模型》最新 128 页

  28. Open AI 管理 AI 智能体的实践

  29. 未来生命研究院 FLI2024 年 AI 安全指数报告 英文版

  30. 兰德公司 2024 人工智能项目失败的五大根本原因及其成功之道 - 避免 AI 的反模式 英文版

  31. Linux 基金会 2024 去中心化与人工智能报告 英文版

  32. 脑机接口报告脑机接口机器人中的人机交换

  33. 联合国贸发会议 2024 年全球科技创新合作促发展研究报告 英文版

  34. Linux 基金会 2024 年世界开源大会报告塑造人工智能安全和数字公共产品合作的未来 英文版

  35. Gartner2025 年重要战略技术趋势报告 英文版

  36. Fastdata 极数 2024 全球人工智能简史

  37. 中电科:低空航行系统白皮书,拥抱低空经济

  38. 迈向科学发现的生成式人工智能研究报告:进展、机遇与挑战

  39. 哈佛博士论文:构建深度学习的理论基础:实证研究方法

  40. Science 论文:面对 “镜像生物” 的风险

  41. 镜面细菌技术报告:可行性和风险

  42. Neurocomputing 不受限制地超越人类智能的人工智能可能性

  43. 166 页 - 麦肯锡:中国与世界 - 理解变化中的经济联系(完整版)

  44. 未来生命研究所:《2024 人工智能安全指数报告》

  45. 德勤:2025 技术趋势报告 空间计算、人工智能、IT 升级。

  46. 2024 世界智能产业大脑演化趋势报告(12 月上)公开版

  47. 联邦学习中的成员推断攻击与防御:综述

  48. 兰德公司 2024 人工智能和机器学习在太空领域感知中的应用 - 基于两项人工智能案例英文版

  49. Wavestone2024 年法国工业 4.0 晴雨表市场趋势与经验反馈 英文版

  50. Salesforce2024 年制造业趋势报告 - 来自全球 800 多位行业决策者对运营和数字化转型的洞察 英文版

  51. MicrosoftAzure2024 推动应用创新的九大 AI 趋势报告

  52. DeepMind:Gemini,一个高性能多模态模型家族分析报告

  53. 模仿、探索和自我提升:慢思维推理系统的复现报告

  54. 自我发现:大型语言模型自我组成推理结构

  55. 2025 年 101 项将 (或不会) 塑造未来的技术趋势白皮书

  56. 《自然杂志》2024 年 10 大科学人物推荐报告

  57. 量子位智库:2024 年度 AI 十大趋势报告

  58. 华为:鸿蒙 2030 愿景白皮书(更新版)

  59. 电子行业专题报告:2025 年万物 AI 面临的十大待解难题 - 241209

  60. 中国信通院《人工智能发展报告(2024 年)》

  61. 美国安全与新兴技术中心:《追踪美国人工智能并购案》报告

  62. Nature 研究报告:AI 革命的数据正在枯竭,研究人员该怎么办?

  63. NeurIPS 2024 论文:智能体不够聪明怎么办?让它像学徒一样持续学习

  64. LangChain 人工智能代理(AI agent)现状报告

  65. 普华永道:2024 半导体行业状况报告发展趋势与驱动因素

  66. 觅途咨询:2024 全球人形机器人企业画像与能力评估报告

  67. 美国化学会 (ACS):2024 年纳米材料领域新兴趋势与研发进展报告

  68. GWEC:2024 年全球风能报告英文版

  69. Chainalysis:2024 年加密货币地理报告加密货币采用的区域趋势分析

  70. 2024 光刻机产业竞争格局国产替代空间及产业链相关公司分析报告

  71. 世界经济论坛:智能时代,各国对未来制造业和供应链的准备程度

  72. 兰德:《保护人工智能模型权重:防止盗窃和滥用前沿模型》-128 页报告

  73. 经合组织 成年人是否具备在不断变化的世界中生存所需的技能 199 页报告

  74. 医学应用中的可解释人工智能:综述

  75. 复旦最新《智能体模拟社会》综述

  76. 《全球导航卫星系统(GNSS)软件定义无线电:历史、当前发展和标准化工作》最新综述

  77. 《基础研究,致命影响:军事人工智能研究资助》报告

  78. 欧洲科学的未来 - 100 亿地平线研究计划

  79. Nature:欧盟正在形成一项科学大型计划

  80. Nature 欧洲科学的未来

  81. 欧盟科学 —— 下一个 1000 亿欧元

  82. 欧盟向世界呼吁 加入我们价值 1000 亿欧元的研究计划

  83. DARPA 主动社会工程防御计划(ASED)《防止删除信息和捕捉有害行为者(PIRANHA)》技术报告

  84. 兰德《人工智能和机器学习用于太空域感知》72 页报告

  85. 构建通用机器人生成范式:基础设施、扩展性与策略学习(CMU 博士论文)

  86. 世界贸易组织 2024 智能贸易报告 AI 和贸易活动如何双向塑造 英文版

  87. 人工智能行业应用建设发展参考架构

  88. 波士顿咨询 2024 年欧洲天使投资状况报告 英文版

  89. 2024 美国制造业计划战略规划

  90. 【新书】大规模语言模型的隐私与安全

  91. 人工智能行业海外市场寻找 2025 爆款 AI 应用 - 241204

  92. 美国环保署 EPA2024 年版汽车趋势报告英文版

  93. 经济学人智库 EIU2025 年行业展望报告 6 大行业的挑战机遇与发展趋势 英文版

  94. 华为 2024 迈向智能世界系列工业网络全连接研究报告

  95. 华为迈向智能世界白皮书 2024 - 计算

  96. 华为迈向智能世界白皮书 2024 - 全光网络

  97. 华为迈向智能世界白皮书 2024 - 数据通信

  98. 华为迈向智能世界白皮书 2024 - 无线网络

  99. 安全牛 AI 时代深度伪造和合成媒体的安全威胁与对策 2024 版

  100. 2024 人形机器人在工业领域发展机遇行业壁垒及国产替代空间分析报告

  101. 《2024 年 AI 现状分析报告》2-1-3 页.zip

  102. 万物智能演化理论,智能科学基础理论的新探索 - newv2

  103. 世界经济论坛 智能时代的食物和水系统研究报告

  104. 生成式 AI 时代的深伪媒体生成与检测:综述与展望

  105. 科尔尼 2024 年全球人工智能评估 AIA 报告追求更高层次的成熟度规模化和影响力英文版

  106. 计算机行业专题报告 AI 操作系统时代已至 - 241201

  107. Nature 人工智能距离人类水平智能有多近?

  108. Nature 开放的人工智能系统实际上是封闭的

  109. 斯坦福《统计学与信息论》讲义,668 页 pdf

  110. 国家信息中心华为城市一张网 2.0 研究报告 2024 年

  111. 国际清算银行 2024 生成式 AI 的崛起对美国劳动力市场的影响分析报告 渗透度替代效应及对不平等状况英文版

  112. 大模型如何判决?从生成到判决:大型语言模型作为裁判的机遇与挑战

  113. 毕马威 2024 年全球半导体行业展望报告

  114. MR 行业专题报告 AIMR 空间计算定义新一代超级个人终端 - 241119

  115. DeepMind 36 页 AI4Science 报告:全球实验室被「AI 科学家」指数级接管

  116. 《人工智能和机器学习对网络安全的影响》最新 273 页

  117. 2024 量子计算与人工智能无声的革命报告

  118. 未来今日研究所:2024 技术趋势报告 - 广义计算篇

  119. 科睿唯安中国科学院 2024 研究前沿热度指数报告

  120. 文本到图像合成:十年回顾

  121. 《以人为中心的大型语言模型(LLM)研究综述》

  122. 经合组织 2024 年数字经济展望报告加强连通性创新与信任第二版

  123. 波士顿咨询 2024 全球经济体 AI 成熟度矩阵报告 英文版

  124. 理解世界还是预测未来?世界模型的综合综述

  125. GoogleCloudCSA2024AI 与安全状况调研报告 英文版

  126. 英国制造商组织 MakeUK2024 英国工业战略愿景报告从概念到实施

  127. 花旗银行 CitiGPS2024 自然环境可持续发展新前沿研究报告

  128. 国际可再生能源署 IRENA2024 年全球气候行动报告

  129. Cell: 物理学和化学 、人工智能知识领域的融合

  130. 智次方 2025 中国 5G 产业全景图谱报告

上下滑动查看更多

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值