智能爆炸的真实(上)

在人工智能的流行度因为前一年alphaGO登顶围棋高峰而如火如荼的2017年,François Chollet (人工智能专家,Keras的创建者)在Medium上发出一篇长文,详细反驳了当时许多带节奏的自媒体宣扬的跨过“奇点”后的“智能爆炸”威胁——即当AI发展到可以设计自身的时候,那么通过迭代造成的AI的能力就可以指数级上升,其产生的超级智能体可以在很短的时间内大幅超越人类,成为碾压人类的存在。
https://medium.com/@francois.chollet/the-impossibility-of-intelligence-explosion-5be4a9eda6ec
Chollet的这篇文章重点阐述了他对智能的本质、技术迭代发展的本质这两点的理解,并且认为对这两个问题的错误认知是某些人持有“智能爆炸威胁”论的原因。我们来详细看下这其中的观点:

  1. 智能不是一种抽象的形而上的能力,而是一种解决特定问题或需求的能力,所以它必然和问题的环境相适应——这一点对自然的智能和人工智能都适用。换言之,不存在解决所有问题的“通用”智能,每种智能都是和其完成的特定任务相关的。典型例子如一个章鱼的智能是用于章鱼生存的而演化出来的,而不是为了获得某种“解题”能力。
  2. 推而广之,智能是一种环境决定的现象,环境是智能必不可少的组成部分,智能绝不可能诞生于封闭的空间。这意味着要发展出更高的智能的前提是必须有更高的智能体得以成长的环境,这个环境是群体化的, 需要在高智能体的互动中体现。这点也适用于AI。
  3. 一个人的智能本身也不仅仅只是存在于个体的大脑内部,而是分布在围绕脑的内外部世界中。人类的智能自开化以来一直依赖“外部化”的媒介——最早是借助了语言,后来出现了文字、图画、文献资料,如今更是依赖数据库、互联网等组成的庞大的外部信息——而这一切即我们称之为“文明”的现象。这种“外部化”也包括与你互动的其他人,这就回到了上一点的环境论。总之,人类一直是通过这些工具来辅助思考的,智能,是一种群体演进现象。
  4. 这种群体智能的演进速度也不能指数上升,一般只能线性增长。这是因为,尽管迭代的范式是指数形式的,但随着技术文明的发展,开发新智能所投入的资源也是指数增长的,这种开销的增长抵消了迭代内生的指数成长趋势,最终带来的是线性增长的结果。人类的文明、科技的发展所涉及的算力、信息、智力成本确实如此。回顾科技史,我们为发展投入的资源是指数上升的。

Chollet的这些论点不少确是真知灼见。谈及智能,多数人都本能地以个体为视角,与之相关的是一种形而上的智能观——即智能是一种可以从具体的智能体分离出来的、通用的、抽象的能力。但是,我们现在拥有的智能是适应自然演化带来的结果,而并不是按照某种原理或抽象目标设计出来的。人类的智能的作用只是使我们“成为人”而不是追求某种概念化的能力,正是从这个意义上,Chollet认为人的智能不可被视为其他物种的智能的高级版,而是两条平行的路线。文章举的一个例子是,如果把人脑塞进其他动物的身体,大概率无法掌握其生存技巧的。另一方面,当人类以造物主的身份来创造AI,从历史经验来看,试图依赖理想化的规则逻辑实现AI的方法并不怎么成功,这类系统缺乏基本的灵活性,在纯规则化的应用场景中表现也不怎么好,因为构建规则的过程太过纷乱细碎导致庞杂的工作量。后来AI的研发转向模式识别范式,这条路近年来升级到了神经网络模型,虽然其内部表征处理机制还说不太清,反倒创造了相对成功的AI应用路线。
文章从智能的定义上就否定了传统的智能观。如果智能的组成必须包括外部化和社会化要素,那么要发展更高级的智能就必须为其配备能与之互动的其他智能体,还需要给予应用环境供其“成长”,而不能像开发一个普通的程序一样在独立状态中一代代改进。这与商业模式的发展创新颇有些相似。
对智能本质理解的不同必然导致不同的技术发展思路。从人工智能的历史到现实,似乎指示了一条道法自然的道路。智能、大脑、生命这些超级复杂系统作为人类面对的最困难的问题(个人认为没有之一),我们被迫在连原理都难以搞清的情况下进行研究和应用,这就很难采用传统的从上到下彻底掌握的原则来建造一个系统。相对可行的一种方法是为系统的组成单位制定互动、交流、演化的规则和方向,然后由其自身采用生态的方法进行演进。这方面的观点的极致已经总结在《失控:机器、社会系统和经济的新生物学》(Kevin Kelly著)这本书里面了,书中断言未来的机器将变得越来越像生物,因为生物本身也是一种机器,只不过比我们传统观念中的机器形象精细得多得多。书发表于1995年,其中的很多预言已经变成现实。

但是,我们先不忙着全盘接受这个系列的观点。一个有意思的问题是,为什么我们对智能普遍会产生那种形而上的观点?其实这和人类关于世界本质的形而上的观念是一致的。回顾自然哲学的发展史,以及工业革命以来的科学技术发展史,人类多数的科学原理认知和技术发展都是在理性的基础上建立起来的,公式和模型代表我们对事物规律的理解,而只有当这样的“原理”被彻底搞清楚后,一般才认为人们真正掌握了某一事物。而这么做的根源还是在于人类特有的“抽象化”能力,以及相应的构建理念和想象的世界的能力——这正是自然演化赋予人类智能在“成为人”上最重要的特质。
正是在这样的基础上,人类创造了文明体系和近代科技的种种成果。但是前面说的这种智能发展的新范式,不再完全符合传统的成功经验,理性之外需要一点感性,缺少了一点那种“稳固”感。其实人类本性都是喜欢尽在掌握、说一不二的,与不确定性打交道从来不是人类十分擅长的。以往这种情况主要出现在人和人之间,难道这也将变成未来我们面对技术时的情形?《失控》一书描写的未来趋势,到底是一种更高级的技术发展方式,还是人脑难以驾驭越来越大复杂的系统的情形下,被迫采用的一种妥协方案?如果是后者,那么是否意味着人类的智能是否已经无法完全满足科技进步的潜力?(这是所谓的技术停滞的原因之一吗?)以传统的方法找到智能的终极真相的期望到底只是需要更多的投入,还是从原理上就是不成立的?
Chollet这篇文章并没有很好地回答这些问题。第一,智能对环境的特定性适应不代表不存在一种通用的智能能力,文章在这个问题上太过偏向于具体的案例而缺少对普遍性的探讨。天差万别的物种既然有相同的底层神经机制,又有类似的对环境的适应学习能力,那就很可能有一种普适的智能的构成和作用原理凌驾于具体的物种系统上。这种原理并不一定就是智能的本质,但必然对探索这个本质有巨大助益。
第二,人类的智能有其特殊性,个人认为不能视为和其他物种并列的一种智能。诚然各个物种都在演化中努力扮演好自己的角色,但是人脑在智能容量上跨出了一大步,量变引发质变,导致一种超脱的特殊性。这种特殊性不是人能创造工具,拥有语言,而是人的智能可做到反作用于己,思考自身智能的存在和原理,进而思考其他物种智能的形态并互相比较,最后在思考的成果上创造出人工智能的机器。人不一定适应以章鱼的形态生存,但人确实可以理解章鱼的智能的原理,并且比章鱼自身的认识要深刻得多(如果章鱼真有对自身的认识的话)。作一个类比,各个物种的智能仿佛各种不同的计算装置,他们有不同的算法和功能,但人类智能的灵活度和普适度的超越性使其具备了图灵机的属性,它不仅可以代替所有可能的普通计算设备,也可以模拟出自身。
第三,提供环境和互动很可能是发展智能必需的,但没有理论能说明这个“环境”的规模要有多大,也不代表在迭代的每个环节都需要有完整的环境。也许最少的情况下我们只需要1个互动对象,或者2个……(类似alphaGO的self-play学习,博弈场景中一个对手就足以闭环)。智能演化所需的资源量还没有定论,不能说一定不能支持超越线性的增长。
最后,文章所举的例子并不足以证明渐进式的成长是构建智能体的唯一方法。这里只讨论到参考我们生物智能的发展历史是一条可行的路,但不代表别的路就走不通。目前遇到的难题回归到本源,还是因为人类尚未参透智能的本质和原理,如果有一天这个答案找到了,那必然可以让超级智能的迭代进入快车道。而找到这个原理不一定需要超出人类现有认知力的智能,毕竟在这个混沌的宇宙中,非常复杂的事物可以由很基本的规则构建起来。

前面几个问题无论答案为何,我们的目标都是服务于智能未来的发展。毕竟怎么理解这个世界是哲学,问题在于改变世界。那么,在当下的时代,我们应该怎么做来推进人工智能的发展?这将在下篇中探讨。

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值