伊隆·马斯克等人认为,人工智能对人类构成了生存威胁。他们声称这些机器将不断进步,拥有实际意识,最终超越人类智能,使我们成为它们眼中可轻易消除的烦恼。但人工智能真的会像天网一样攻击我们吗?或者这只是人工智能炒作的又一胡言乱语?一项新研究花时间测试了这一假设,发现它完全是错误的。那么,他们是如何得出这个结论的?这对人工智能行业有何影响?
首先我们来看一下为什么有些人认为人工智能可以建立天网。
人工智能程序所做的就是识别数据中的模式,然后在提示时重现这些模式。它纯粹由统计数据驱动,因此实际上并不“思考”,也不具备任何有意识的知识或框架来了解自己正在做什么。然而,一些人预测,随着人工智能获得更多数据并开始发展“突现特性”,这种情况将会改变。突现是一个复杂的话题,我们今天没有时间深入探讨。然而,这一预测背后的想法是,一旦人工智能模型变得足够大,人工智能软件中不可预测的部分就会发生变化,从而使人工智能能够解决训练数据中没有的问题。这类似于人工智能从复制模式转变为真正理解正在发生的事情,并能够在其初始参数之外准确运行。
如果这样的人工智能足够先进且连接良好,它就可以实现马斯克和科幻小说所预测的许多人工智能末日场景。
然而,涌现是出了名的难以预测的事情。毕竟,涌现的概念来自混沌理论。因此,没有人知道人工智能是否会表现出涌现特性,或者这些特性是否会导致朝着更有意识的理解迈出这一步。因此,这些预测更多地是基于一个非常可疑的“假设”情景,而不是科学。
然而,许多人工智能模型,尤其是像 ChatGPT 4 这样的 LLM,现在已经足够大,可以测试它们的涌现特性。这正是德国达姆施塔特工业大学的计算机科学家 Iryna Gurevych 和巴斯大学的 Harish Tayyar Madabushi 最近领导的一项研究所做的。
他们选取了四个具有先前确定的涌现属性的 LLM AI 模型,并对其进行了测试,以查看它们是否确实如此。这涉及一系列测试,并将 AI 的结果与其预期的编程和训练数据进行比较。他们发现,AI 遵循指令、记忆和语言能力(这些都是其初始编程和训练的一部分)的能力可以解释这些先前确定的涌现属性。这些 AI 程序只是在其代码的边界内以复杂的方式运行。简而言之,没有一个 AI 表现出涌现性。
这使得作者得出结论,人工智能实际上受到编程的太多限制,无法在没有指导的情况下获得新技能。无论你输入多少数据,它们都不会获得任何理解这些数据的新能力。因此,人工智能仍然在人类的控制之下,那些关于人工智能末日的预言根本不可能实现。
如果你认真思考一下,就会发现这完全是有道理的。
人工智能与我们人类等生物所展现的智能截然不同,这是一种新兴特性。人工智能需要大量的训练数据和多次修改才能解决黑猩猩在几秒钟内无需任何先验知识就能解决的问题。此外,黑猩猩可以从错误中不断学习,并根据可以随着新结果不断变化而变化的理解框架来修改其解决问题的方法。即使是最先进的人工智能也无法实现这种自我意识灵活性。
我真心认为,人们之所以相信人工智能涌现特性这一理论,唯一的原因是它的名字极具误导性。人工智能是一个绝妙的品牌宣传,但并不能很好地描述实际的技术。它并不智能。相反,它是一种统计建模系统,与我们所知的任何形式的实际智能都毫无相似之处。因此,它与天网之类的东西相距甚远。如果它被命名为其他名字,比如基于节点的分析和预测,能够准确描述该技术的作用,我怀疑这种涌现概念是否会被认真对待。
现在,这绝不意味着人工智能是 100% 安全的。它仍然可以被人类使用,并带来毁灭性的后果。只要看看马斯克在 X/Twitter 上分享的人工智能错误信息就知道了。但它强烈暗示了流氓人工智能的概念可以归为虚构,而人工智能首席执行官的夸张胡言乱语可以看作是公关噱头。