心动小站Ⅹ--AI将来真的能拥有意识吗?

一个深刻的问题仍然存在:人工智能真的能像人类一样理解世界吗?人工智能将来真的能拥有意识吗?

涵盖的主题

  • 只有接受泛心论,才有可能创造出有意识的机器
  • 因果推理无法解决问题
  • 计算不可约性
  • 非可计算性和量子考虑
  • 量子力学与意识
  • 千脑理论
  • 代理问题
  • 潜意识问题:我的理论
  • 概括

我要明确指出,AGI 将在不久的将来实现,我对此深信不疑。但 LLM 的扩展会让我们实现这一目标吗?我对此表示怀疑。在本文中,我们感兴趣的是机器是否会变得有意识和超级智能,并不断无限扩展其能力。让我们来分析一下任何此类未来系统的局限性。

第 1 部分:

只有接受泛心论,才有可能创造出有意识的机器

我们将从马克·毕晓普 (Mark J. Bishop) 提出的反对意识机器不可信的观点开始我们的讨论。

他认为,人工智能系统从根本上缺乏理解力和意向性,而这两者对于真正的智能至关重要。目前的人工智能系统几乎不了解现实世界,我们甚至无法谈论意向性。

要理解 Bishop 的观点,我们首先需要定义什么是泛心论。根据维基百科,它的定义如下:

在心灵哲学中,泛心论认为心灵或类似心灵的方面是现实的基本特征,且无处不在。它还被描述为一种理论,即“心灵是存在于整个宇宙中的世界的基本特征”。简单来说,即使是咖啡杯也和我们一样有生命和意识;它们也和我们一样有自己的主观性。

这种关于机器意识和人工智能的观点从根本上是对心智计算理论的批判。他的论点被称为“与小精灵共舞”归谬法。它挑战了意识只能从计算中产生的观点。

毕晓普并不主张泛心论(即认为意识是所有物质的基本特征的观点),而是将其作为相信机器意识的荒谬后果。

如果我们接受意识可以仅从计算中产生,那么我们也必须接受一种泛心论。这是因为,在有限的时间段内,任何足够复杂的物理系统都可以被解释为实现任何任意计算。因此,如果意识源于计算,那么理论上它将存在于所有物理系统中,从而导致泛心论的结论:意识无处不在。

由于泛心论通常被认为是不可信的,我们应该拒绝仅靠计算就能产生意识的想法。这挑战了强人工智能的基本假设以及我们可以通过纯计算手段创造有意识的机器的观念。它表明人工智能和人类认知之间可能存在“无法弥合的人性鸿沟” 。

这一论点对于我们理解人工智能和意识具有重要意义。它表明,当前的人工智能计算方法,包括神经网络和因果推理等先进技术,可能在实现类似人类的理解和意识方面存在根本性限制。

人类意识中除了复杂的计算之外,还有更多的东西——这种品质无法通过增加计算能力或复杂性来复制。我们不知道这种更多的东西到底是什么。

请注意,这是一个哲学论点并且仍然存在争议。

相信计算思维理论的人可能会认为,这些理论的解释力太强,不能基于这种归谬论证而放弃。他们可能会质疑该论证的前提,或主张对意识进行更细致的理解,允许在不同系统中存在不同程度或原型的意识。

由于我们不知道意识是如何产生的,因此可能存在一种特定的方向或顺序,可以从计算中产生意识。这个哲学问题的答案仍有待解决。但说只有某种计算组合才能产生意识本身就带来了一系列问题。也许这些问题是人类永远无法回答的。

这一论点迫使我们重新考虑我们对意识的本质及其与物理和计算过程的关系的假设。它提出了一些非常好的问题,即什么构成了“真正的”理解和意识,以及这些品质是否可以在人工系统中完全复制。

正确定义这些术语自该领域诞生以来一直是一个挑战。我们不断对智能或智能行为给出新的定义,一旦实现这些定义,我们就会改变目标。最好的例子就是非常著名的图灵测试。我们说,如果机器通过了转向测试,它们就会被认为是真正的智能;现在我们确实有这样的机器可以通过这个测试,但我们不相信它们是真正的智能。为什么我们不认为这些机器是智能的,我们将在博客的后面部分讨论这个问题。

随着人工智能技术的不断进步,这些哲学思考对于指导我们对机器智能的理解和期望仍然至关重要。它还促使我们以新的方式思考这些非常困难的概念。

现在,让我们来谈谈为什么即使对人类行为至关重要的因果推理也可能无法解决问题。

因果推理无法解决问题

Judea Pearl 等研究人员认为,人工智能需要从“联想推理”转向“因果推理”,以克服其局限性。这种方法表明,人工智能应该从观察到的现象中推断原因,以做出更好的决策并更深入地理解世界,而不是通过记忆模仿智能行为。

毫无疑问,人工智能在围棋、星际争霸等游戏以及各种商业应用方面取得了重大进展。然而,这些成功是肤浅的,主要基于先进的模式识别,而不是真正的理解。它们仍然没有进行任何因果推理,仍然在很大程度上是联想推理。

许多人认为,人工智能系统本质上是计算实体,无法真正理解或拥有意向性。根据吉尔伯特·赖尔的“范畴错误”概念,人工智能 依靠符号的句法操作,无法实现人类所拥有的语义理解。

你们中的一些人可能会说,即使是人类也会进行符号操作。没错,但我们的操作仍然建立在一个高度语境化的世界中,即使在进行了所有类型的符号操作之后,我们仍然可以保持知识库的一致性。

让我们利用中文房间论证来进一步理解这种操纵。

中文房间争论

这一论证和思想实验现在通常被称为“中文房间论证”,最早发表于 1980 年美国哲学家约翰·塞尔 (John Searle,1932- ) 的一篇文章中。

塞尔的“中文房间”思想实验:

  1. 塞尔在一个房间里,手里拿着一本回复中文信息的规则手册。
  2. 他通过门缝收到了中文信息。
  3. 他使用规则手册来匹配符号并做出反应。
  4. 他把这些回复塞回了门下。
  5. 外面的人以为房间里有人听得懂中文。
  6. 但塞尔根本不懂中文。

遵循规则来处理语言并不意味着你理解了语言。塞尔利用这一点来论证运行程序的计算机并不真正理解语言或拥有真正的智能。

该论证的狭隘结论是,对数字计算机进行编程可能会使其看起来理解语言,但无法产生真正的理解。因此,“图灵测试”是不充分的。塞尔认为,这个思想实验强调了这样一个事实:计算机仅仅使用句法规则来操纵符号串,但无法理解含义或语义。

计算机可能会将苹果与水果联系起来,但它本质上并不了解苹果的感觉或味道,以及它与其他水果有何独特之处。

从中文房间论证中可以得出的更广泛的结论是,人类大脑不仅仅是一个计算或信息处理系统。相反,思维一定是生物过程的结果;计算机最多只能模拟这些生物过程。因此,该论证对语义学、语言和思维哲学、意识理论、计算机科学和认知科学具有重大影响。

根据“中文房间论证”,我们可以说,当前的人工智能系统甚至未来的人工智能系统可能一直在进行符号操作,而不是像人类一样进行理解。但不要完全被这个论点所左右,对“中文房间论证”有很多批评性的回应。

请注意,我并不是说未来的机器将无法呈现正确的输出,而是即使它们能够呈现正确的输出,它们也不会明白自己所做的事情是否正确。

计算不可约性

我们旅程的下一站是计算不可约性。有些物理过程我们不能简单地将变量(初始条件)代入公式并得到结果。这种复杂的物理过程(系统)要求我们根据先前的状态计算每个时间步骤(系统状态作为时间步骤)。

此类系统的示例包括流体运动(天气预报、空气动力学等)、股票市场行为等。在次优设置中,我们能够以 1:1(模拟时间/物理过程时间)的比例模拟这些系统。也就是说,模拟将以与实际过程相同的速度进行。

可以想象,在这种情况下,模拟物理过程和实际执行物理过程本质上没有区别。因此,模拟行为的优势开始减弱。

但我们生活的严酷现实常常迫使我们以 (1/0.x) 比 1 的比例进行模拟。换句话说,我们目前需要花费数小时来模拟几秒钟内就能完成的物理过程。更糟糕的是,我们经常进行简化和/或假设,导致我们的模拟中出现固有的“错误”

正式来说:

虽然许多计算允许使用捷径来更快地完成,但其他计算无法加速。无法通过任何捷径加速的计算称为计算不可约。计算不可约性原理认为,确定计算不可约问题答案的唯一方法是执行或模拟计算。一些不可约计算可以通过在更快的硬件上执行来加速,因为该原理仅指计算时间。

下图显示了计算上可约化系统(左和中)和不可约系统(右)的示例。

可约系统(左和中)和不可约系统(右)

让我们看一个如何生成不可约模式的简单例子。

什么是规则 30:规则 30 是 Stephen Wolfram 提出的一维细胞自动机规则。这是一组简单的规则,用于确定网格中细胞随时间的状态。

怎么运行的:

  • 从一行单元格开始,每个单元格要么是黑色,要么是白色。
  • 对于下一行中的每个单元格,查看其正上方的单元格及其两个邻居。
  • 根据此三单元格图案,按照规则 30 确定新单元格的颜色。

规则:如果上面的模式是:

  • 黑-黑-黑:新单元格为白色
  • 黑-黑-白:新单元格为白色
  • 黑-白-黑:新单元格为白色
  • 黑-白-白:新单元格为黑色
  • 白-黑-黑:新单元格为黑色
  • 白-黑-白:新单元格为黑色
  • 白-白-黑:新单元格为黑色
  • 白色-白色-白色:新单元格为白色

规则 30 不可约模式

为什么它是不可约的?

  • 尽管有这些简单的规则,但出现的模式却非常复杂并且看似随机。
  • 目前,如果不实际经历所有中间步骤,就无法预测未来细胞的状态。
  • 我们不能使用数学捷径或公式来跨越时间。

计算不可约性的另一个例子是哈希算法的有效性,该算法在网络安全中得到广泛应用。哈希函数将输入数据转换为固定大小的输出,通常称为哈希。

这些函数通常设计得快速高效,但很难逆转。计算不可约系统的不可预测性非常适合开发强大的哈希函数,以保护数字信息免受恶意行为者的侵害。

我们毫不怀疑,当前的人工智能系统为我们带来了无可置疑的价值。更令人印象深刻的是,从现在起,它的影响将是有史以来最小的。

但是,我们面临的更大问题是,使用统计概率运行的大型语言模型 (LLM) 并没有真正理解我们的世界,如何如此有效地回答我们的许多复杂问题?

想想看,你的问题并不一定是独一无二的。

这是一个古老的哲学问题;你或我的任何想法不一定是独一无二的。在人类历史的某个时刻,很可能有人曾经有过同样的想法。

事实证明,LLM 能够识别我们问题中的统计模式,并使用简单的流程来提供结果。我知道我说得太简单了,请查看前两篇文章,以更细致地了解 LLM。

这些过程虽然简单,但本质上是计算上不可约的。这不仅仅是 LLM 所固有的。大多数现代机器学习系统都依赖计算上不可约的过程来从数据中学习并调整其行为。

换句话说,即使是 LLM 的创建者也可能无法理解其逐步运行的算法,从而导致了所谓的“黑箱”问题现象。

非可计算性和量子考虑

现在让我们通过罗杰·彭罗斯关于非可计算性的理论以及量子力学在人类意识中的作用来看看他反对强人工智能概念的论点。

要理解彭罗斯,我们需要从哥德尔开始讨论。

哥德尔不完备定理

在任何足够强大、逻辑一致的逻辑或数学公式中,一定存在既不能证明也不能反驳的真公式。该定理的推论是,逻辑系统的一致性无法在该系统内得到证明。

哥德尔定理表明,在任何一致的形式系统中,都存在无法在系统内证明的真命题。彭罗斯将此应用于人类认知,表明人类的理解超越了形式系统,因此无法被计算机器完全复制。

考虑一个能够进行基本算术的形式系统。哥德尔表明,总会有一个陈述(我们称之为 G)说:“这个陈述无法证明为真。”如果 G 在系统内是可证明的,那么它会导致矛盾,因为它断言了它自己的不可证明性。因此,G 是真的,但无法在系统内证明,这表明该系统是不完整的。

设想这样一个场景:人工智能的任务是证明数学定理。人工智能按照其算法,只能证明形式系统能力范围内的定理。然而,当它遇到像 G 这样的哥德尔陈述时,它无法证明或反驳它。另一方面,人类数学家可以理解为什么 G 是正确的,即使它在系统内无法证明。这表明了人工智能的一个根本限制:它无法超越形式系统的界限,实现人类认知所能达到的更深层次的理解。

因此,如果我们要扩展这一论点,并说人类认知涉及识别不可计算的真理(即它们不能从一组形式规则或算法中得出),那么基于计算过程的人工智能就无法复制人类智能的这一方面。人工智能纯粹在形式系统和算法的范围内运作,这意味着它在处理不可计算的真理时无法达到人类思维所能达到的理解水平。

但彭罗斯并没有止步于哥德尔的论证,甚至更深入地研究了量子力学。

量子力学与意识

彭罗斯认为,人类意识可能涉及不可计算的量子过程。这是一个深刻而又充满争议的想法。

他提出,大脑中的量子效应,特别是神经元内的微管,在产生意识方面发挥着至关重要的作用。

如果彭罗斯的结论正确,那么就意味着当前基于经典计算的人工智能系统从根本上来说无法实现类似人类的意识或理解能力。这挑战了强人工智能假说。

许多科学家和哲学家认为,没有证据表明量子效应在大脑功能中发挥重要作用,因为大脑温暖潮湿的环境会导致量子态快速退相干。

协调目标减少(Orch-OR)

彭罗斯和麻醉师斯图尔特·哈梅罗夫提出了一种理论来解释量子过程如何有助于意识。

该理论认为意识源自大脑微管中的量子过程。该理论指出,大脑内的蛋白质结构可以维持量子态,从而允许神经元内进行量子计算。其关键思想是,微管中的量子叠加不是随机坍缩的,而是以受细胞机制影响的“精心策划”的方式坍缩的。他们认为,这种坍缩对应于意识体验的时刻,涉及传统计算机无法模拟的过程。

作为推论,如果该理论是正确的,那就意味着基于经典计算的人工智能永远无法真正复制人类意识,因为它缺乏彭罗斯和哈梅罗夫认为对意识体验至关重要的基本量子过程。

批评:该理论极具争议。许多神经科学家和物理学家认为,大脑太“温暖和潮湿”,量子相干性无法维持足够长的时间,无法与神经过程相关。此外,关于量子效应(即使存在)是否是解释意识的必要条件,也存在争议。

我不太了解量子,甚至不会尝试,但你可以在这里阅读维基百科:Orchestrated Objective Reduction (Orch-OR)

千脑理论

以上提到的大多数都停留在理论层面,但杰夫·霍金斯的千脑理论无疑更接近现实,它为我们提供了很多关于人类大脑如何运作的可测试和可验证的假设。

该理论引入了很多思想,特别是关于大脑皮层的工作原理。以下是书中的两个主要思想。

分布式表示

  • 皮质柱:人类大脑皮层包含数千个皮质柱或建模系统,每个系统都能够学习完整的物体和概念模型。这些皮质柱半独立地运行,处理感官输入并形成对世界不同方面的表征。这种分布式处理使大脑非常强大、灵活,能够同时处理复杂多样的任务。
  • 稳健性和灵活性:由于每个柱状体都可以开发自己的模型,因此大脑可以处理某些柱状体的损坏或丢失,而不会导致整体认知功能发生灾难性故障。这种冗余和并行处理意味着大脑可以有效地适应新信息和环境。

参考框架

  • 创建参考框架:每个皮质柱都会创建自己的参考框架来理解物体和概念,从而有助于多维度和动态理解。例如,一组柱可能处理物体的视觉特征,而另一组柱可能处理其空间位置,还有一组处理其功能。这种分层和多方面的方法可以全面、丰富地理解世界。
  • 动态灵活的系统:皮质柱能够动态地创建和调整参考框架,这意味着大脑可以快速适应新情况并无缝整合新信息。这种灵活性是人类智能的核心组成部分,使大脑能够快速学习和适应不断变化的环境。

现在让我们将其与当前的人工智能系统进行比较。

目前大多数人工智能系统(包括深度学习网络)都依赖于集中式模型,其中单个神经网络以分层方式处理输入。这些模型通常遵循从输入到输出的线性进程,分层处理信息,每层从数据中提取越来越抽象的特征。

与人脑的分布式处理不同,人工智能的集中式方法缺乏冗余。如果部分网络发生故障,或者输入数据与训练数据发生重大变化,人工智能系统可能会发生灾难性的故障。

与人类大脑适应和从部分系统故障中恢复的能力相比,缺乏稳健性是一个重大限制。

人工智能系统通常具有固定的信息处理结构。经过训练后,神经网络会在预定义的参数内运行,不会像人脑那样动态地为新环境创建新的参考框架。这限制了它们在不同领域推广知识或适应新类型数据的能力,而无需进行大量的再训练。


人类大脑中的皮质柱

简而言之,人类可以在非常不寻常的环境中操作,而人工智能却完全没有能力做到。

想象一下,当你踏入一个全新的环境时,你的大脑及其数千个皮质柱会立即开始运作。每个皮质柱就像一个迷你大脑,开始构建自己对这个陌生世界的模型。这不仅仅是识别物体,而是理解它们之间的关系、它们的潜在用途以及你如何与它们互动。

你发现了一个有点熟悉的东西。你的大脑不只是将它与存储的图像进行匹配,而是创建一个新的、丰富的模型,将你所看到的东西与你所知道的关于类似物体的一切融合在一起。但最有趣的是:你不仅仅是这个模型中的观察者。你的大脑将你——你的身体、你的潜在行为——视为它正在构建的这个新世界不可或缺的一部分。

当你探索时,你不只是记录自己所认识的东西。你敏锐地意识到什么与你现有的知识不符。这种“从否定中获取的知识”至关重要。它驱使着你的好奇心,促使你进一步探索。

与此同时,你并不是静止的。你在移动、触摸,甚至操纵物体。随着每个动作,你的大脑都在预测结果,将其与实际发生的情况进行比较,并完善其模型。这不仅仅发生在你知道的事情上;你的大脑正在大胆地推断,对全新物体的行为做出有根据的猜测。

现在,假设某样东西真的吸引了你的注意。你停下来,全神贯注地看着这个有趣的物体。当你检查它时,你的大脑不仅仅是在储存新信息。它正在重塑这个环境的整个模型。这个物体如何与其他物体互动?你会如何使用它?每一点新知识都会影响你的理解,微妙地改变一切。

人类认知和当前人工智能之间的差距就在这里变得非常明显。人工智能可能识别物体,甚至可能驾驭这个新环境。但它缺乏关键的自我意识,即把自己置于它正在构建的世界模型中的能力。它无法真正理解与环境互动意味着什么,因为它没有真正将自己视为一个能够互动的实体的概念。

此外,人工智能的世界模型(如果有的话)往往是僵化且有限的。它很难无缝整合新信息,很难将知识推广到截然不同的领域,也很难像人类一样毫不费力地凭直觉对因果关系和物理学做出判断。

千脑理论认为,这种丰富、动态、自我包容的建模是类人智能的关键。它不仅仅关乎处理能力或数据;它关乎创建和操纵多个动态参考框架的能力,这些参考框架包括自我作为积极参与者。在人工智能能够做到这一点之前,它对世界的理解将与我们有着根本的不同——更像是看地图,而不是真正地在地形上行走。

代理问题

在《生命如何运作》一书中,考夫曼将自主性描述为生物体根据其内部状态和与环境的相互作用独立行动的能力。这种自主性是生物系统自组织和复杂特性的产物,生物体不断适应并响应其环境的变化。

生物系统中的自由意志可以看作是做出并非完全由先前状态预先确定的选择的能力。考夫曼认为,这种能力根植于生物系统固有的不可预测性和适应性。生物系统内的非线性相互作用和反馈回路创造了一种自主性,使生物体能够驾驭其环境并根据内部和外部因素做出决策。

将人工智能系统的自组织与生物系统进行比较,这些系统与生物系统相差甚远。人工智能基于预定义的算法和模型运行,这些算法和模型本身并不像生物系统那样适应或进化。虽然机器学习算法可以根据新数据进行更新,但这一过程并不等同于生物实体中出现的自发自组织。

人工智能系统,即使是那些采用复杂神经网络的系统,也达不到生物系统固有的复杂程度。生物复杂性的新兴特性,如适应、学习和进化,在人工智能中无法完全复制。人工智能缺乏生命系统特有的动态交互和反馈回路,并导致新兴行为。

人工智能系统没有自由意志,因为它们无法做出独立选择。它们的行为完全由编程、训练数据和遵循的算法决定。即使是高级人工智能,例如强化学习模型,也会根据训练参数定义的最大化奖励来选择行动。这些选择不是出于意图或自我导向的目标,而是缺乏主观经验或理解的优化过程的结果。

人工智能缺乏真正的自主权和自由意志。虽然人工智能可以根据数据输入和编程目标做出决策,但这些决策并不是自主、自组织过程的结果。人工智能的“选择”由其编程和训练数据决定,没有生物系统固有的不可预测性和适应性。这意味着人工智能不具备生物体所特有的那种自主决策能力。

人工智能无法制定自己的目标,也无法理解自己与环境的互动,这凸显了其缺乏自主性和自由意志。人工智能在严格的参数范围内运行,这与表现出灵活、自主行为的生命系统有着根本区别。

潜意识问题:我的理论

我已经阅读和研究认识论一段时间了。我从很多方面思考过智能,我相信未来几年我们会取得一些非常好的突破。抛开实际考虑,我确信人工智能将在几乎所有实际任务中击败人类,但这更有可能是通过联想模仿智能而不是真正理解世界的情况。

有了无限的内存和计算能力,几乎所有的知识都可以表示为检索任务,而不是理解任务。这足以使一大堆任务自动化,甚至到了大多数人无事可做的地步。但即使在这种情况下,数据、资源以及交互的本质也存在着严格的限制,交互增长如此之快,以至于任何计算都无法捕捉到它并完美地预测它。总会有一些任务,人类会在效率或创新方面击败人工智能。除非我们真正复制一个人类的大脑,这在硅片上不太可能发生,除非我们能像我们的生物学一样进行自组织,如果我们这样做了,那么它就会类似于我们的智能,是的,它在共享信息方面会更快,但即使是这个系统也会有严格的限制。

最近,我深入研究了 CJ Jung 的《寻找灵魂的现代人》,从中我获得了深刻的见解,重塑了我对人工智能的理解。Jung 强调,我们的大部分大脑活动都是在潜意识层面进行的,只有一小部分想法是有意识的。这意味着我们通常无法完全解释自己的行为,因为它们是由我们基本上无法理解的潜意识过程驱动的。

与人工智能相比,很明显这些系统从根本上讲都是信息处理——重新路由、抽象和映射数据。如果我们人类无法完全理解我们的潜意识(这可能是我们意识和决策的主要来源),那么在人工智能中复制这一点就会变得极具挑战性。想象一下,在不了解外星语言的词汇或结构的情况下试图解码外星语言;尽管计算能力强大,但这项任务可能仍然难以完成。如果外星语言的结构和语法与我们完全不同,那么我们就无法将其映射到我们理解的任何东西上。这个类比延伸到我们在人工智能中复制人类大脑功能的尝试。

即使我们可以记录下每一个神经活动,将其映射到特定的想法或行为上,也就像在没有现存的语言使用者或罗塞塔石碑指引的情况下破译一种古老的、被遗忘的语言一样。就像一些部落语言在历史上已经消失一样,我们潜意识的复杂性可能永远无法被全面理解。潜意识可能正是理解世界的东西,我们不能用它来理解自己,哥德尔不完全性定理阻止我们这样做。

这对人工智能的影响是深远的。只要我们的目标是模仿人类大脑的效率、主观性和能动性(这些可能源自这些深层的潜意识过程),我们就可能永远无法完全成功。我们的潜意识不仅仅是隐藏思想的储存库,更是我们意识的基础。因此,如果不完全理解它,创造一个真正有意识的、能反映人类认知和行为的人工智能可能仍然是一个无法实现的目标。

这些都是非常宏大的主张,但也是必要的主张,有助于我们理解我们需要思考什么以及如何思考构建下一代人工智能系统。我们完全有可能不想创建一个类似人类的系统,而是一个完全不同的系统,一个设计用来精确和具体地做事而不是一般和近似地做事的系统。

这个讨论是开放的,在我们开始深入研究未来人工智能系统的哲学和物理限制之前,我们需要解决许多当前的问题。

概括

鉴于我们的文章已经很长,我们不能不做总结就结束本文。

只有接受泛心论,才有可能制造出有意识的机器。泛心论认为,意识遍布所有物质,即使是最小的粒子也拥有某种形式的主观体验。该理论表明,要制造出真正有意识的机器,我们必须接受这样一个事实:意识并非生物实体所独有,而是宇宙的一个基本方面。这一观点挑战了传统观点,即意识完全来自复杂的神经活动。

因果推理无法解决问题虽然一些研究人员(如 Judea Pearl)主张通过因果推理能力增强人工智能以克服其局限性,但这种方法是有缺陷的。Mark J. Bishop 认为,人工智能由于其计算性质,无法实现真正​​的理解或意向性。仅靠因果推理无法解决人工智能句法处理与人类语义理解之间的根本差距。

中文房间论证约翰·塞尔的中文房间论证表明,系统无需任何理解,即可处理输入并生成与人类反应无异的输出。这个思想实验展示了人工智能的局限性,表明即使人工智能系统表现得像人类,也并不意味着它理解自己的行为或拥有意识。

计算不可约性Stephen Wolfram 的计算不可约性概念表明,某些系统如果不进行实际计算就无法简化或预测。这意味着依赖算法和模型的人工智能系统可能难以完全复制或预测人类认知和意识的复杂性。

不可计算性和量子考虑因素Roger Penrose 认为,人类认知的某些方面涉及不可计算的过程,可能源于量子力学。这一假设表明,意识和理解无法完全被经典计算模型所捕捉,这对人工智能的发展构成了重大挑战。

哥德尔不完备定理哥德尔不完备定理意味着,在任何一致的形式系统中,都存在无法在系统内证明的真命题。彭罗斯将此应用于人类认知,表明我们的理解能力超越了形式系统,因此无法被在这些限制内运作的人工智能复制。

量子力学与意识彭罗斯与斯图尔特·哈默洛夫合作提出了 Orch-OR 理论,提出意识源自大脑神经元中的量子过程。该理论挑战了仅靠经典计算就能实现意识的观点,强调了在理解思维时考虑量子效应的必要性。

协调目标还原 (Orch-OR) Orch-OR 假设大脑微管中的量子态还原有助于意识的形成。该理论表明,大脑的认知功能涉及不可计算的量子过程,这与人工智能系统的运作有着根本的不同。

千脑理论杰夫·霍金斯的千脑理论认为,智力源自大脑中许多独立皮质柱的并行处理,每个皮质柱都创建一个世界模型。这种分布式处理可以实现稳健而灵活的理解,与缺乏这种适应性和深度的人工智能集中式和分层模型形成鲜明对比。

代理问题目前的人工智能系统缺乏真正的代理,因为它们不具备自我意识或制定独立目标的能力。人工智能基于预定义的算法运行,没有理解或意图,这与表现出自主决策和目标设定能力的人类有着根本的不同。

潜意识问题:我的理论人类大脑的大部分活动都是潜意识的,以我们无法完全理解的方式影响着我们的行为。如果我们的意识和决策深深植根于潜意识,那么在人工智能中复制这一点就变得极具挑战性。人工智能系统以明确和透明的方式处理信息,无法模仿人类潜意识复杂而晦涩的运作方式。

​​​​​​​欢迎前往我们的公众号,阅读更多时事资讯​​​​​​​

创作不易,觉得不错的话,点个赞吧!!!


  • 4
    点赞
  • 3
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值