成为有意识的AI会是什么感觉?

人类善于发现看起来像我们自己的智能。

但没有规则说机器必须像我们一样思考。

图片

成为有意识的AI会是什么感觉?我们可能永远不会知道

听听这个故事

像罗伯特这样的机器是科幻小说的支柱——机器人通过硬件或软件以某种方式复制意识的想法已经存在了很长时间,感觉很熟悉。

罗伯特不存在,当然,也许他永远不会存在。事实上,一台对世界有主观体验、对自身有第一人称视角的机器的概念,与主流AI研究的脉络背道而驰。它与关于意识和自我本质的问题相冲突——这些问题我们仍然没有完全理解。即使想象罗伯特的存在也会引发严重的伦理问题,我们可能永远无法回答。这样一个存在会有什么权利,我们该如何保护它们?然而,尽管有意识的机器可能仍然是神话,我们应该为有一天我们可能创造它们的想法做好准备。

图片

我们可以想象通过一种声纳观察世界会是什么样子。但对于蝙蝠来说,这仍然不是它应有的样子。

正如研究意识的神经科学家克里斯托夫·科赫(Christof Koch)所说:“我们不知道在这个宇宙中有任何基本的法则或原则禁止人类设计或进化的人工制品中存在主观感受。”

在我十八九岁的时候,我曾经喜欢把人变成僵尸。我会看着和我说话的人的眼睛,盯着他们的瞳孔不是黑点而是洞这个事实。当它出现时,这种效果会立即让人迷失方向,就像在视错觉中切换图像一样。眼睛不再是心灵的窗户,变成了空心球。魔法消失了,我会看着和我说话的人的嘴自动张开和闭合,感觉到一种精神眩晕。

无脑机器人的印象从未持续太久。但它让人们明白了一个事实,那就是别人头脑中的想法永远遥不可及。无论我多么坚信其他人和我一样——有意识的头脑在幕后工作,通过那些眼睛往外看,感到希望或疲惫——印象都是我们必须继续下去的。其他一切都是猜测。

艾伦·图灵明白这一点。当数学家和计算机科学家问“机器会思考吗?”他专注于思维的外在表现——我们称之为智力。他建议通过玩一个机器试图以人类身份通过的游戏来回答。任何成功的机器——通过给人以智能的印象——都可以说是有智能的。对图灵来说,外表是唯一可用的衡量标准。

但并不是每个人都准备忽视思维的无形部分,即拥有思想的事物的不可简化的体验——我们称之为意识。1948年,在图灵描述他的“模仿游戏”的两年前,开创性的脑外科医生杰弗里·杰斐逊(Geoffrey Jefferson)向英国皇家外科医生学院发表了一篇颇具影响力的演讲,内容是关于曼彻斯特马克1号,这是一台房间大小的计算机,报纸称之为“电子大脑”杰斐逊提出了一个比图灵高得多的标准:“直到机器能够根据感觉到的思想和情感写一首十四行诗或创作一首协奏曲,而不是通过符号的偶然坠落,我们才能同意机器等于大脑——也就是说,不仅能写它,而且知道它已经写了它。”

杰斐逊排除了思考机器的可能性,因为机器缺乏主观经验和自我意识意义上的意识(“成功时的快乐,阀门融合时的悲伤”)。然而快进70年,我们活在图灵的遗产中,而不是杰斐逊的。谈论智能机器是家常便饭,尽管大多数人会同意这些机器是无脑的。就像哲学家所说的“僵尸”一样——就像我过去喜欢假装观察人类一样——从逻辑上来说,当“内部”没有任何事情发生时,一个存在可以表现得聪明是可能的

但是智力和意识是两回事:智力是关于做的,而意识是关于存在的。人工智能的历史一直关注前者,而忽略了后者。如果罗伯特真的作为一个有意识的存在存在,我们怎么会知道呢?答案与一些关于我们的大脑——和思想——如何工作的最大谜团纠缠在一起。

测试罗伯特表观意识的问题之一是,我们真的不知道意识意味着什么。来自神经科学的新兴理论通常将注意力、记忆和解决问题等事物归类为“功能”意识的形式:换句话说,我们的大脑如何执行我们在醒着的生活中进行的活动。

但是意识还有另一面是神秘的。第一人称的主观体验——身处世界的感觉——被称为“现象”意识。在这里,我们可以将一切事物归类,从快乐和痛苦等感觉到恐惧、愤怒和喜悦等情绪,再到听到狗叫、品尝咸椒盐卷饼或看到蓝色门的奇特私人经历。

对一些人来说,不可能将这些经历归结为纯粹的科学解释。关于大脑如何产生品尝椒盐卷饼的感觉,你可以列出所有要说的东西——但它仍然不会说品尝椒盐卷饼实际上是什么样的。这就是纽约大学的大卫·查尔莫斯所说的“难题”,他是研究心灵的最有影响力的哲学家之一

今天的人工智能离智能还差得远,更不用说意识了。即使是最令人印象深刻的深层神经网络也完全是无脑的。

像查尔莫斯这样的哲学家认为意识不能用今天的科学来解释。理解它甚至可能需要一种新的物理学——也许是一种包含制造意识的不同类型材料的物理学。信息是候选之一。查尔莫斯指出,对于宇宙的解释,关于物体的外部属性以及它们之间的相互作用有很多话要说,但是关于这些物体的内部属性却很少。意识理论可能需要打开一扇通向这个隐藏世界的窗户。

另一个阵营是塔夫茨大学的哲学家和认知科学家丹尼尔·丹尼特,他说现象意识只是一种幻觉,是我们大脑为自己创造的一个故事,作为一种理解事物的方式。丹尼特与其说是解释意识,不如说是解释它。

但是不管意识是否是一种幻觉,查尔莫斯和丹尼特都不否认有意识机器的可能性——有一天。

今天的人工智能离智能还差得远,更不用说意识了。即使是最令人印象深刻的深度神经网络——比如DeepMind的玩游戏的AlphaZero或者OpenAI的GPT-3这样的大型语言模型——也完全是无脑的。

然而,正如图灵所预测的那样,人们经常将这些人工智能称为智能机器,或者谈论它们时就好像他们真的了解这个世界——仅仅是因为他们看起来可以这样做。

华盛顿大学的语言学家艾米丽·本德对这种炒作感到沮丧,她开发了一种思维实验,她称之为章鱼测试。

在这部电影中,两个人在邻近的岛屿上遭遇海难,但他们找到了一种通过悬挂在他们之间的绳子来回传递信息的方法。他们不知道,一只章鱼发现了这些信息,并开始检查它们。在很长一段时间里,章鱼学会识别它看到的来回经过的曲线图案。在某个时候,它决定截取笔记,并利用它所学到的模式,通过猜测哪些曲线应该跟随它收到的曲线,开始写回曲线。

如果岛上的人类没有注意到并相信他们还在互相交流,我们能说章鱼懂语言吗?(本德的章鱼当然是像GPT-3这样的人工智能的替身。)有人可能会说,章鱼确实懂这里的语言。但是本德继续说:想象一下,其中一名岛民发送了一条信息,说明如何建造椰子弹射器,并要求改进它。

章鱼是做什么的?它已经学会了哪些曲线很好地跟随其他曲线来模拟人类交流,但它不知道这个新音符上的曲线“椰子”到底是什么意思。如果一个岛民请求另一个岛民帮助她保护自己免受攻击熊的攻击呢?章鱼要怎么做才能继续欺骗岛民,让他们以为她还在和邻居说话?

这个例子的目的是揭示当今最前沿的人工智能语言模型到底有多肤浅。本德说,关于自然语言处理有很多炒作。但是“处理”这个词隐藏了一个机械论的真理。

人类是积极的倾听者;我们在没有或没有意图的地方创造意义。本德说,并不是章鱼的话有意义,而是岛上的居民能理解它们。

尽管它们很复杂,但今天的人工智能是智能的,就像计算器可以说是智能的一样:它们都是机器,旨在以人类——有头脑的人——选择解释为有意义的方式将输入转换为输出。虽然神经网络可以松散地模仿大脑,但最好的神经网络远没有老鼠的大脑复杂。

然而,我们知道大脑可以产生我们所理解的意识。如果我们最终能弄清楚大脑是如何做到这一点的,并在人工装置中重现这一机制,那么有意识的机器肯定是可能的?

当我试图在这篇文章的开头想象罗伯特的世界时,我发现自己被意识对我意味着什么这个问题所吸引。我对有意识机器的概念不可否认地——也许不可避免地——类似于人类。这是我唯一能想象到的意识形式,因为这是我唯一经历过的。但是,作为一个有意识的人工智能真的是这样吗?

这么想可能有些自大。建造智能机器的项目偏向于人类智能。但是动物世界充满了各种可能的替代品,从鸟类到蜜蜂到头足类动物。

几百年前,在勒内·笛卡尔的推动下,公认的观点是只有人类是有意识的。缺乏灵魂的动物被视为无脑机器人。今天很少有人这样认为:如果我们有意识,那么几乎没有理由不相信拥有相似大脑的哺乳动物也有意识。为什么要在哺乳动物周围画线?鸟类在解谜时似乎会思考。大多数动物,甚至像虾和龙虾这样的无脊椎动物,都表现出疼痛的迹象,这表明它们有一定程度的主观意识。

但是我们如何才能真实地描绘出那种感觉呢?正如哲学家托马斯·内格尔指出的那样,成为蝙蝠必须“像”一样,但那是我们甚至无法想象的——因为我们无法想象通过一种声纳观察世界会是什么样子。我们可以想象我们这样做可能会是什么样子(也许是闭上眼睛,想象我们周围的回声定位点云),但这仍然不是蝙蝠的样子,因为它有蝙蝠的大脑。

处理这个问题的另一种方法是考虑头足类动物,尤其是章鱼。众所周知,这些动物既聪明又好奇——班德用它们来阐述她的观点绝非巧合。但是它们有一种非常不同的智力,完全独立于所有其他智慧物种进化而来。我们与章鱼共享的最后一个共同祖先可能是生活在6亿年前的一种微小的蠕虫状生物。从那以后,无数种脊椎动物——鱼类、爬行动物、鸟类和哺乳动物——沿着一个分支发展了自己的思维,而头足类动物则发展了另一个分支。

因此,章鱼的大脑与我们的大脑大不相同也就不足为奇了。章鱼没有像中央控制单元一样由单一的神经元控制,而是有多个类似大脑的器官,似乎分别控制着每只手臂。实际上,这些生物和我们可能遇到的任何东西一样接近外星智慧。然而,研究思维进化的哲学家彼得·戈弗雷-史密斯说,当你与一只好奇的头足类动物面对面时,毫无疑问会有一个有意识的生物回头看。

几百年前,公认的观点是只有人类有意识。缺乏灵魂的动物被视为无脑机器人。今天很少有人这么想。

对人类来说,随着时间的推移而持续的自我意识构成了我们主观体验的基石。从我们记事起,我们就是今天早上、上周和两年前的那个人。我们回忆我们去过的地方,做过的事情。这种第一人称的观点让我们将自己视为与外部世界互动的代理人,外部世界中有其他代理人——我们明白我们是一个做事的人,也有别人对我们做过的事。章鱼,更不用说其他动物,是否也这样认为还不清楚。

同样,我们不能确定拥有自我意识是否是成为有意识机器的先决条件。例如,作为一个群体合作的机器,通过将自己作为群体的一部分而不是个体来体验,可能会表现得更好。无论如何,如果像罗伯特这样有潜在意识的机器存在,我们会遇到同样的问题,评估当我们试图确定智力时,它是否真的有意识:正如图灵所建议的,定义智力需要一个聪明的观察者。换句话说,我们在今天的机器上看到的智能是由我们投射到机器上的——就像我们把意义投射到本德的章鱼或GPT-3写的信息上一样。意识也是如此:我们可能声称看到了它,但只有机器才能确定。

如果人工智能真的获得了意识(我们相信他们的话),我们将会做出重要的决定。我们将不得不考虑他们的主观体验是否包括遭受痛苦、无聊、抑郁、孤独或任何其他不愉快的感觉或情绪的能力。我们可能会决定某种程度的痛苦是可以接受的,这取决于我们是把这些动物看得更像牲畜还是人类。

一些担心超智能机器危险的研究人员建议,我们应该将这些人工智能限制在虚拟世界中,以防止它们直接操纵现实世界。如果我们相信他们有类似人类的意识,他们有权利知道我们把他们封锁在模拟中吗?

其他人认为关闭或删除有意识的机器是不道德的:正如我们的机器人罗伯特担心的那样,这将类似于结束一个生命。也有相关的场景。如果重新训练一台有意识的机器意味着删除它的记忆,这符合道德吗?我们能复制人工智能而不伤害它的自我意识吗?如果意识在训练中被证明是有用的,当主观经验帮助人工智能学习时,但在运行训练模型时是一个障碍,会怎么样?打开和关闭意识可以吗?

这只是触及道德问题的表面。包括丹尼特在内的许多研究人员认为,即使我们能制造有意识的机器,也不应该试图制造。哲学家托马斯·梅青格甚至呼吁暂停可能导致意识的工作,即使这不是预期目标。

如果我们决定有意识的机器有权利,它们也会有责任吗?人工智能能被期望表现得合乎道德吗?如果不能,我们会惩罚它吗?这些问题推进到更棘手的领域,引发了关于自由意志和选择本质的问题。动物有意识的体验,我们允许它们某些权利,但它们没有责任。然而,这些界限会随着时间推移而改变。有了有意识的机器,我们可以期待全新的边界被划定。

有可能有一天,意识的形式会像人工智能的类型一样多。但我们永远不会知道成为这些机器是什么感觉,就像我们永远不会知道成为章鱼、蝙蝠甚至是另一个人是什么感觉一样。可能有些意识形式我们并不知道它们是什么,因为它们与我们习惯的完全不同。

面对这样的可能性,我们将不得不选择与不确定性共存。

我们可能会觉得和它在一起更快乐。正如丹尼特所说,我们希望我们的人工智能是工具,而不是同事。“你可以关掉它们,你可以把它们拆开,就像你可以用汽车一样,”他说。“这是我们应该保持的方式。”

图片

图片

一个单独行动的人工智能可能会从与世界的自我感觉中受益。但是,作为一个群体进行合作的机器,通过将自己作为群体的一部分而不是个体来体验,可能会表现得更好。

  • 0
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

网络研究观

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值