李飞飞:不,今天的人工智能没有知觉

在大语言模型出现以前,尤其是 ChatGPT 出现之前,人们对“人工智能是否具有自我意识”这类议题基本很少认真对待。尽管人工智能在诸如像图像识别与语言理解等一些方面的表现已逐渐超越人类,可大多数人仍然将其视为人类创造的工具,而非真正的智能体。然而,大语言模型的到来彻底改变了这一看法,因为从形式上看,这些模型展现出了许多人格化的特征。

大语言模型拟人化

为何大语言模型“无所不知”?


类似于 ChatGPT 这样的大模型会运用网络爬虫去搜集数据以对自身进行训练,借助对互联网上大量数据的抓取与剖析(这里面涵盖了中国党政机关、国企央企等各种网站业务系统的数据),持续进行训练并迭代更新,强化对人类语言的领会,以此才能够生成更为精准且和上下文紧密相关的回应,进而成为“无所不知”的超级对话机器人。

作者简介

李飞飞

1️⃣ 教育背景

  • 🎓 普林斯顿大学:获得了物理学学士学位
  • 🎓 加州理工学院:获得了电气工程博士学位

2️⃣ 主要成就

  • 🖼️ 图像识别数据库:李飞飞与她的团队创建了ImageNet,这是一个大型的图像识别数据库
  • 🚀 深度学习发展:它极大地推动了深度学习在图像识别领域的应用和发展

🔍 李飞飞的工作展示了她在推动AI技术发展的同时,也关注技术对社会的影响和责任。她的研究和教育工作对整个AI领域产生了深远的影响。

今天的人工智能是否有意识?

李飞飞发文讨论了通用智能(AGI)和大型语言模型(LLM)是否具有感知能力的问题。作者认为,虽然LLM在某些方面表现出了惊人的能力,但它们并没有真正的感知能力,因为它们没有身体和生理机能,无法体验饥饿、疼痛等感觉。作者还指出,我们需要更好地理解感知能力是如何在生物系统中产生的,才能在人工智能系统中重现这一现象。

正如我以前的观点一样:


但其所能够带来的推动产业升级以及促使生产生活方式发生改变的力量是绝对不容小觑的!

以下是文章原文👇

2024年5月22日 | 李飞飞

一个通用智能 (AGI) 是一个术语,用于描述在人类展示(或可以展示)智能的所有方面至少与人类一样智能的人工代理。这就是我们过去所说的人工智能,直到我们开始创建不可否认的“智能”程序和设备,但在有限的领域——下棋、翻译语言、用吸尘器吸尘我们的客厅。

添加“G”的感觉来自于由人工智能驱动的系统的激增,但专注于单个或非常少量的任务。IBM令人印象深刻的早期国际象棋程序“深蓝”(Deep Blue)可以击败世界冠军加里·卡斯帕罗夫(Garry Kasparov),但如果房间起火,就没有停止下棋的意识。

现在,一般智力有点像一个神话,至少如果我们自吹自擂地拥有它的话。我们可以在动物世界中找到许多智能行为的例子,这些例子所取得的结果远远好于我们在类似任务中所能取得的结果。我们的智力并不完全通用,但足够通用,可以在我们发现自己所处的大多数环境中完成我们想要完成的事情。如果我们饿了,我们可以猎杀乳齿象或找到当地的克罗格;当房间着火时,我们寻找出口。

一般智力的基本特征之一是“感知”,即拥有主观体验的能力——感受它是什么样子,比如说,体验饥饿、品尝苹果或看到红色。感知是通向一般智能道路上的关键一步。

随着 2022 年 11 月 ChatGPT 的发布,大型语言模型 (LLM) 时代开始了。这立即引发了一场激烈的辩论,即这些算法是否真的是有知觉的。基于LLM的人工智能可能具有感知能力,其影响不仅引发了媒体的狂热,而且深刻地影响了全球范围内监管人工智能的一些政策努力。最突出的立场是,“有知觉的人工智能”的出现对人类来说可能是极其危险的,可能会带来“灭绝级”或“生存”危机。毕竟,一个有知觉的人工智能可能会发展出自己的希望和欲望,但不能保证它们不会与我们的希望和欲望发生冲突。

这篇短文最初是WhatsApp群聊,旨在揭穿LLM可能已经获得感知的论点。它并不意味着完整或全面。我们在这里的主要观点是反对“有知觉的人工智能”阵营提供的最常见的辩护,该辩护取决于LLM报告具有“主观体验”的能力。

为什么有些人认为人工智能已经实现了感知能力

在过去的几个月里,我们俩都与人工智能领域的许多同事进行了激烈的辩论和对话,包括与一些最杰出和最具开创性的人工智能科学家进行了一些深入的一对一对话。人工智能是否已经实现了感知,一直是一个突出的话题。他们中的少数人坚信它确实如此。以下是他们最直言不讳的支持者之一的论点的要点,非常代表“有知觉的人工智能”阵营中的人:

“人工智能是有知觉的,因为它报告了主观体验。主观体验是意识的标志。它的特点是声称知道你所知道或经历的。我相信,作为一个人,当你说“我有一顿美餐后感到快乐的主观体验”时,你是有意识的。作为一个人,我实际上没有直接证据证明你的主观体验。但既然你传达了这一点,我认为从表面上看,你确实有主观体验,所以是有意识的。

“现在,让我们将相同的’规则’应用于LLM。就像任何人一样,我无法访问LLM的内部状态。但我可以质疑它的主观体验。我可以问’你饿了吗?它实际上可以告诉我是或否。此外,它还可以明确地与我分享它的“主观体验”,几乎任何事情,从看到红色,饭后快乐,到有强烈的政治观点。因此,我没有理由相信它没有意识或没有意识到自己的主观体验,就像我没有理由相信你没有意识一样。在这两种情况下,我的证据是完全相同的。

为什么他们错了

虽然乍一看这听起来很有道理,但这种说法是错误的。這是錯誤的,因為我們的證據在兩種情況下並不完全相同。甚至没有接近。

当我得出结论说,当你说“我饿了”时,你正在经历饥饿,我的结论是基于一大堆情况。首先,是你的报告——你说的话——也许还有其他一些行为证据,比如你肚子里的咕噜声。其次,是缺乏相反的证据,就像你刚刚吃完五道菜的饭菜一样。最后,也是最重要的一点,就是你有一个像我这样的身体,它周期性地需要食物和饮料,冷的时候会变冷,热的时候会变热,等等。

现在将此与我们关于LLM的证据进行比较。唯一常见的是报告,事实上,LLM可以产生一串音节“我饿了”。但相似之处就到此为止。事实上,法学硕士没有身体,所以甚至不是那种可以饿肚子的东西。

如果法学硕士说,“我的左脚大脚趾剧烈疼痛”,我们会得出结论说它的左脚大脚趾剧烈疼痛吗?当然不是,它没有左大脚趾!就这样,当它说它饿了时,我们实际上可以肯定它不是,因为它没有饥饿所需的那种生理机能。

当人类感到饥饿时,他们会感觉到一系列生理状态——低血糖、空腹咕噜咕噜等等——而法学硕士根本没有这些状态,就像它有一张嘴可以放食物,有一个胃来消化它一样。当它说它饿了时,我们应该相信它的话,就像如果它说它从月球的黑暗面对我们说话,我们应该相信它的话。我们知道事实并非如此,LLM的相反断言并没有改变这一事实。

所有的感觉——饥饿、疼痛、看到红色、坠入爱河——都是法学硕士根本没有的生理状态的结果。因此,我们知道LLM不可能有这些状态的主观体验。换句话说,它不可能是有知觉的。

LLM 是在硅芯片上编码的数学模型。它不是像人类一样的具身存在。它没有需要吃、喝、繁殖、体验情感、生病并最终死亡的“生命”。

重要的是要了解人类如何生成单词序列和 LLM 如何生成这些相同的序列之间的深刻差异。当我说“我饿了”时,我是在报告我感觉到的生理状态。当 LLM 生成序列“我饿了”时,它只是在其当前提示中生成最有可能完成的单词序列。它正在做同样的事情,当它用不同的提示生成“我不饿”,或者用另一个提示,“月亮是由绿色奶酪制成的”。这些都不是关于其(不存在的)生理状态的报告。它们只是概率完成。

我们还没有实现有知觉的人工智能,更大的语言模型也无法让我们到达那里。如果我们想在人工智能系统中重现这种现象,我们需要更好地了解感知是如何在具身生物系统中出现的。我们不会在 ChatGPT 的下一次迭代中绊倒感知。

📚 原文链接:
https://time.com/collection/time100-voices/6980134/ai-llm-not-sentient/

  • 11
    点赞
  • 8
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值