人工智能技术的走向 —— 对“新观察论坛”讨论人工智能回帖的评述 文章作者: 鲁汶 发表日期: 2/21/03 文章编号: 20030025 (一)引 言 下一次生产力飞跃的突破口在哪里?从新华社记者杨骏2月26日发了一篇有 关“人工智能技术日益兴起”的报道中可知,目前越来越多的科学家把希望寄托于 人工智能。他们认为人工智能将带来一次史无前例的技术革命。 这种预言主要来自以下两个人工智能的尝试结果: 第一个尝试是1997年,世界头号国际象棋大师卡斯帕罗夫与超级计算机“ 深蓝”较量后不得不俯首称臣,让人脑第一次尝到了在电脑面前失败的滋味。 第二个尝试是美国伦塞勒工学院研究人员已经研制出了能够写作一篇简单小说 的计算机软件系统。研究人员说,教会计算机写小说,比教会计算机下国际象棋等 更有益于人工智能的研究。他们指出,计算机下棋只涉及到对简单符号的控制,而 计算机写小说所需要的“叙述”和“组织故事”的能力则与人类大脑的思维方式更 接近。随著技术的发展,或许有一天会诞生出一个比莎士比亚更具才华的智能机器 作家呢。美国麻省理工学院人工智能实验室的罗德尼·布鲁克斯甚至打算在4年内 ,使他的机器人Cog至少具备一个小孩的各方面的智慧和能力。 由于这些进展似乎使人们看到了人工智能技术发展的美好前景。为了实现人工 智能,人们把注意力多半集中在利用现有的计算机技术模拟人工智能和利用全新的 技术实现人工智能。 据杨骏介绍用现有的计算机技术模拟人工智能已取得较大成绩。比如用计算机 进行的辅助设计、翻译、检索、绘图、写作、下棋、智能识别、机械作业等方面的 发展,已经向智能化迈进了一步。 为了使计算机功能更加接近人类大脑,而注意开展人工神经网络的研究,这样 似乎人类向计算机的智能化又迈出了重要的一步。有人想人工神经网络是未来电子 技术应用的新领域,未来智能计算机的构成,可能就是作为主机的冯.诺依曼型机 (储存式计算机)与作为智能外围的人工神经网络的结合。 再者就是人们寄希望于全新的计算机技术能够带动人工智能的发展。据说目前 至少有三种技术有可能引发全新的革命,它们是光子计算机、生物计算机和量子计 算机。 光子计算机的运算速度据推测可能比现行的超级计算机快1000到1万倍。 而一台具有5000个左右量子位的量子计算机可以在大约30秒内解决传统超级 计算机需要100亿年才能解决的素数问题。相对而言,生物计算机研究更加现实 ,美国威斯康星-麦迪逊大学已研制出一台可进行较复杂运算的DNA计算机。据 悉,一克DNA所能存储的信息量可与1万亿张CD光盘相当。在这些推测中人们 对人工智能的发展和实施当然是乐观的。 笔者是对人工智能技术的实施是比较关注的,通过阅读杨骏的报道想起“新观 察论坛”前一时期由网友“愚人”引起的一场人工智能争论,很有意义,可以说网 友们受益非浅。现做一些整理和评注,以供网友们进一步讨论。 (二) 图灵机与现在计算机的本质差异 网友“愚人”于1 月29日在“新观察论坛”贴出“漫谈图灵机与机器思维”( 2000/01/29/21407.html)一文,回应网友“小糊涂小姐”。从“愚人”的回帖可知 “小糊涂小姐”曾向“愚人”提出这样一个问题: 有个以色列科学家认为生命形式是一种“图灵”计算机。据说图灵机 比现在的计算机更“UNIVERSAL”,理论上可以计算任何可计算问题。 “小糊涂小姐”进而问道: ①“图灵机”与现在计算机的本质差异; ②是否“可计算”是怎样确定的。 可能因“愚人”与“小糊涂小姐”是《新观察论坛》的棋逢对手,小糊涂小姐 思想敏锐活跃,考虑的问题很多,“愚人”经勉为其难回答了她提的问题,却又闹 了不少笑话(参见敬亭:“关于遗传密码结构的数学模型回愚人兄”,《新观察论 坛》,2000/01/28)。现在面对“小糊涂小姐”提出的一些问题,“愚人”精神似 乎有些紧张,说话特别谨慎,逻辑特别考究,思路由浅入深。“愚人”说道: 为了回答什么是“图灵机”,先要弄清楚“有限状态计算机”的概念。 定义一:有现状态计算机 —— 一个有限状态计算机被称为“有限”是指 在两种方式下有限: 一、它只有有限数目的状态; 二、它的时间过程是“离散”的。虽然人们可以争辩时间是连续流动 的,但计算机在运行时是离散的,因为控制计算机的钟是数字的。 状态 —— 计算机的基本数据特征。 系:所有目前的人类数字计算机都是有限状态计算机。 证:证明自明。 定理:一个无限运行的有限状态计算机如果没有外部刺激终将进入循环状 态。 证:证明略。 “愚人”的叙述的确逻辑性很强,通过这些“定义”、“系”、“证”和“定理” 是人们对“有限状态计算机”的概念是一清二楚了。现在“愚人”开始了第二个定 义和推理。 定义二:图灵机 —— 图灵机是英国数学家阿兰·图林(Alan Turing)于 1936年提出的理论模型,它被视为无限状态计算机的原型。 图灵机被假定连接到一条无限长的纸带上,此处,“无限长”被认为 “无限制的长”,或潜在的无限长,而不一定意味着真实的无限长。 图灵机的纸带被等量划分为“方格”的基本单元。图灵机能够在每一 单位时间里扫描纸带一次,这个操作做且仅做下面五件事之一: ①写入一个符号到一方格; ②读出一个它写上纸带的方格上的符号; ③它能记忆它所读出的纸带上的符号; ④它能擦去它所写在纸带上的符号; ⑤它能向前和向后移动纸带一个方格的长度。 (注:上面⑤个操作之一被考虑在一个离散时间单位里完成的) 因为纸带被假定有无限长,故图灵机的能力大于任何一个有限计算机 。图灵机能做的事之一就是模拟任何一个有限状态计算机。这是因为,任 意一个有限状态计算机的程序都能够被编成有限数量的代码,这些代码可 被写在纸带上,图灵机使用它们进行计算,就如它所模拟的有限状态计算 机那样执行此程序以响应外界环境对它的刺激。于是,这个“计算机”就 以一串“数字”的形式存在于图灵机里,因而被称为“虚拟计算机”。这 个虚拟计算机是实世界计算机的最完全的模拟。此种完全的模拟称为“仿 效”emulation。除了模拟简单计算机以外,大部分实际计算机模拟其它 计算机都不是仿效,这是由于受到容量与速度的限制。可是,所有的实际 计算机都能被图灵机仿效。 图灵机能被别的图灵机所仿效。事实上,可以证明:存在至少一个图 灵机能仿效所有的计算机。 在“愚人”的引导下,网友们对“图灵机”的历史沿革,特别是对“图灵机”的性 能有所了解了,图灵机简单的被视为一个无限状态计算机(因为纸带被假定有无限 长),可以模拟任何一个有限状态计算机。再看“愚人”的第三个定义和推理。 定义三:“万能”(universal)图灵机 —— 一个图林机, 它能仿效所有 图灵机包括它自己。 定理:存在无限多个计算机,它们能完全等价于一个万能图灵机,因此能 仿效任何计算机。 “愚人”用了三个“定义”回答了“小糊涂小姐”所提出的“‘图灵机’与现在计 算机的本质差异”。回答是很清晰的,但“愚人”却胆却地说“可能不如小糊涂小 姐的意”,可能是惧怕了敬亭“关于遗传密码结构的数学模型回愚人兄”的回帖。 (三)“可计算”是怎样确定的 关于“小糊涂小姐”的第二个问题“是否‘可计算’是怎样确定的”,“愚人 ”同样做了认真的解答: 至于“可计算”问题,我想就是指“可解”(solvable)问题。在人工 智能的研究领域里,它是这样定义的:一个问题称为可解的,如果存在一 个算法能解决它。 一般并不能明确地给出一个问题是否可解的判断法则。举个例子,当 一个程序的指令高达数百万行或更多时,你如何判断它有没有bugs?你可 以对它使用有限个测试,但这些测试的范围远不能涵盖程序的各条条件路 径,因此,判断一个大程序有无bugs的问题基本上是不可解的。 再一个例子,就是所谓中止问题(Halting Problem),这个问题是“ 没法”判断可解的,因为它涉及了“自我参考”,就如集合论里的“康托 悖论”一样。限于篇幅,叙述从略。 美国数学家贝克举出了几十个抽象计算机的例子,它们都等价于万能 图灵机(参见:Becker, Gary S. 1981, "A Treatise on the Family". Cambridge, MA: Harvard Univ.Press),这些例子中有两个著名的(抽象) 机器,一个叫“台球计算机”(Billiard Ball Computer),一个叫“生命 游戏计算机”(Game of Life Computer),生命游戏计算机是英国数学家 约翰. 康维(John Conway)提出来的,它的游戏规则使我们容易用来思考 对图灵机的仿效。 自从图灵提出他的理想机器几十年来,人们一直试图寻找一个(理论) 机器,它能做万能图灵机所不能做的事,但都失败了,因而就有一个猜想 提出来:不存在这样的机器。 这一猜想的本质就是所谓“强人工智能猜想”(Strong Artificial intelligence Postulate),即人类最终能制造出“智慧机器”。 对思维能否“可计算”,这个问题是使人工智能的研究陷入停滞的关键原因。问题 的焦点主要表现在思维是否可以还原为不同的程式(algorithms),而最终归结为电 脑程序的运作呢? (四)图灵判断与中国屋试验 人工智能的研究停滞,使人们不得不对过去图灵提出的一些判断原则开始重新 审视。“愚人”在回帖中叙述了图灵判断与中国屋试验。他说: 然则何为智慧机器?怎么判断一个机器是有“智慧”的?图灵提出了 一个著名的判断原则,此原则说:如果一个人使用任意一串问题去询问两 个他不能看见的对象一个是正常思维的人;一个是机器,如果经过若干询 问以后他不能得出实质的区别,则他就可以认为该机器业已且备了人的“ 智慧”。 显然,这一判断(Turing Test)是研究人工智能的科学家所只能做的 对“思维”的客观判断标准,换句话说,因为没办法准确定义思维,或者 “意识”的客体表现,才退而求其次地来个这种粗浅的判断。这里,我们 需要作一点解释: 我们很清楚自己的思维,虽然不是绝大多数人能够准确定义得出来, 也很清楚自己那个“我”的意思,而且也能够从与别人的言谈和其著述文 字中得出他人也有思维,也有“我”的自我意识,这里,其实大家已经隐 含地,不加思索地约定了一条“公理”:即与我同类者有与我同样的思维 能力。这条“经验”虽可应用到人类,却明显地排斥掉了与人异类的动物 与机器上。 然而,人类偏偏想要造出“思维机器”来,于是麻烦就出来了,你如 何可以知道你所造出来的机器有思维,有自我意识呢?上面图灵提出的命 题(试验)就是对准这个来的。 可是,仍有人(包括我,参见拙作《我思故我在》,天问序列之一)对 图灵的判断不满意,认为这样并不能真正判断出异类有否思维。其中,美 国哲学家约翰. 塞尔(John Searle)为此提出了有名的“中国屋试验”( Chinese Room Experiment)。 “中国屋试验”说,让我们想象,一个人,比如“我”,即塞尔自己 ,被关在一间充满书的屋子里,这些书可以被想象成某计算机的编码,该 机被认为已通过有关中文的图灵试验。 我们知道,执行对任意一个程序的运算,相当于翻开一本书,读它的 内容,抄下它的内容在笔记本(可视为一本新印出的书)上,在笔记本上抹 去从书中抄下的一些字或句子,记住它的某些内容,从一本书跳到另一本 书。 好!现在假定门外某人在门缝里塞进一张写了中文的纸条,我,一个 不懂中文的人,拿到纸条后马上查书,因为书足够(万能图灵机),因此我 能得到答案,并且用中文写下来(也是查书,应该说这叫住画出我不懂的 中文符号),然后从门缝间递出去给那人,于是来回反复这一过程,我这 个一点中文也不懂的人,显然也不知道所传递纸条的意义,却让门外的中 国人误认为我也是一个懂中文的人。 按照图灵命题,“我”将被门外中国佬判断成“能理解中文”的人, 假如我是机器,则我就被他理解成有理解中文能力的智慧机器,然而我一 点也不懂! 从这个假想试验,我们看到,“理解”并不是计算机能模拟的性质, 用图灵命题来判断机器是否有思维显然远远不够,思维的本质被人类揭示 出来的实在是太少太少。(参见:1. Colin McGinn, 1991, "The Problem of Consciousness", Blackwell,Oxford,Cambridge; 2.Howard Gardner, 1985, "The Mind's New Science", Basic Books, New York) 在“愚人”回帖的最后,谈了“小糊涂小姐”所说的“有个以色列科学家认为生命 形式是一种‘图灵’计算机”的感想。他说: 如果把生物的遗传密码系统看成是DNA的分子团链所代表的抽象逻辑 码构成的编程“计算机”,则很显然,无论它有多复杂,它还是有限状态 的机器。那么,为什么那位以色列生物学家会认为它可能是图灵机呢?我 猜想:可能是因为DNA密码系统(如果理解成图灵意义下的“纸带”)能够 通过不同的方式,不同的路径不断组成新的,可再解释的码(即纸带上的 符号),这样,“纸带”的长度就可视为无限长,于是这个机器不就变成 “图灵机”了吗?(见前面图灵机的定义) 我大胆地猜想:如果用这个思路去理解“思维”,思维可能是含有不 可数“势”数目的码的纸带的图灵机!前面图灵机的定义实际上隐含了图 灵机纸带上码可能达无穷可数,而不是无穷不可数。 假如这个猜想能得到证实或部分证实,则图灵命题一定要修改。 “愚人”的回帖可以说非常认真地的回答了“小糊涂小姐”提出的人工智能技术的 一些问题。网友“糊涂机”认为“愚人兄的大作,让我们也受益匪浅。”,“愚人 兄对这么多重要的领域,都有如此深刻的见解,真让人佩服。” (五)还有一些什么其它无穷 网友“糊涂机”在“愚人兄的大作让我们也受益匪浅”(2000/01/29/21427ht ml)回帖中对“愚人”的“漫谈图灵机与机器思维”一帖除了一些赞美以外还就生 物的遗传密码系统看成是DNA的分子团链所代表的抽象逻辑码构成的编程“计算机 ”提出了一些看法,他说: 我想有人认为生物体是图灵机是因为虽然DNA是有限的,但真正承担生 命功能的分子却主要是蛋白质。绝大多数蛋白质之所以有功能,是因为它有 UNIQUE的三维结构。蛋白质要执行生命活动,主要是通过蛋白质——蛋白质 ,蛋白质——其它生物大分子相互作用来实现。现在发现,这种相互作用异 常复杂。似乎这些相互作用是连续,而不是离散的。而且这种连续可能是不 可数的,因此比图灵机还复杂。 进而“糊涂机”提出以下几问: 愚人兄关于生命的奥秘可能存在于不可数无穷中,在下认为非常深刻。 如果是这样,生命的秘密(特别是思维)就同悖论,歌德尔定理等相关,甚 至同时间的结构有关。我觉得,时间会不会有结构? 我想请教愚人兄的问题是:无穷除了可数无穷,于实数等价的不可数 无穷外,还有一些什么其它无穷,有没有特殊的结构?我知道的一种有结 构的无穷是在一段线上重复不断挖去其中的三分之一片断,最后形成了一 个“势”于实数等价,“测度”却为零的集合。在这个集上定义的“概率 ”分布有什么特有,可于现实世界相关的特性? 我的无知理解是:拓扑的目的是要找到条件,把这些无穷的结构简化 成可数无穷。如果不能简化,人类有什么办法掌握这些无穷的特性?因为 如果思维,生命的秘密在老兄说的不可数无穷中,这是什么样的无穷? 对于“糊涂机”所提出的“无穷除了可数无穷,于实数等价的不可数无穷外,还有 一些什么其它无穷,有没有特殊的结构?”网友“偶一为之”先替“愚人”在“回 答两个有关实变函数的小问题”(2000/01/29/21470.html)做了解答: “与实数等价的不可数无穷”也称为具有连续统的势的无穷。比连续 统的势更大的势也有。比如说,[0、1]闭区间上的所有实函数构成的集合 的势就比连续统的势要大。一般来说,如果一个集合的势为N, 则由此集 合的所有子集构成的新集合的势比N大。这是一个定理。 关于“测度”却为零的集合,“偶一为之”答道: 这是著名的“康脱(Cantor)集”,一般定义在[0,1]闭区间上(当然可 以推广)。这个集合有很多奇妙的性质,比如说,它是一个疏朗集(即集合 中每个点的任何一个邻域内都包含一个不含该集合中任何一点的开区间), 又是一个完备集(即集合中的每个点都是聚点)。用康脱集的构造方法,可 以作出具有上述性质(完备、疏朗),具有连续统的势且测度大于零的集合 。利用康脱集还可以构造一些奇怪的反例。 最后,“偶一为之”建议“糊涂机”如果有兴趣的话可去找本实变函数的教材 看看。糊涂机接受这种建议,因为以前学“实函”时,虽然也知道有很多集合的势 大于“连续统”的势,可对于这些集合与现实世界的对应关系不太懂。“糊涂机” 记得选过“数学基础”课,开始就是连续统假设等等,后来是罗素,歌德尔等。可 这些都还给书本了。 “糊涂机”在“谢谢偶一为先生的解答” (2000/01/30/21607.html)回帖中答 谢了“偶一为之”同时又提出: 正好,您提到著名的CANTOR集,在它上面可以定义第三种概率分布( 除连续,离散分布外)。不知这种分布有什么可能的应用(换句话,什么现 象满足这种分布)? “偶一为之”在“关于奇异分布”(2000/01/30/21698.html)的回帖回答了“ 糊涂机”的在此提问: 所谓“第三种概率分布(除连续,离散分布外)”乃是奇异分布。奇 异分布的分布函数是连续函数,但不能用不定积分来表示,因此没有密 度函数。国内南京大学数学系郑维行、王声望编写的教材第一册的第四 章举出一个利用Cantor集特性构造的较简单的奇异分布函数实例。 奇异分布函数的理论价值是显而易见的。至于有没有某种具体的现 象符合奇异分布,在下就不知道了。 “愚人”在“糊涂机君过奖了”(2000/01/30/21584.html)赞赏“偶一为之” 的回答,认为对“糊涂机”提问的第一段所提出的问题,已经答复得很好了,他 就不罗嗦了。他只补充一点,就是“连续统假设”问题。 连续统假设---- 不存在一个数的集合,其势miu满足: a 严格小于 miu 严格小于 c a:可数势, c:连续势, miu:猜测的集合的势。 我们知道,所有的能排成序列的数(也包括有穷个数)都可统称为“可 数势”a;凡能与[0,1]之间的所有实数对应起来的数的集合都被称为“ 连续势”c,连续势c之上的比其大的势是存在的,例如所有定义在[0,1] 上的实函数的集合的个数就是一个比连续势大的势(偶一为之君已说得很清 楚了)。 现在的问题是:是否存在一个数集合的势miu,满足: a康托猜测,这个集合不存在,这就是所谓“连续统假设”。 连续统假设已在前几年被数理逻辑学家所证明。 对于“糊涂机”提问的第二段所提出的问题,“愚人”不能回答,但觉得那个问题 十分有启发意义。生命的意义、尤其是思维的意义是非常重大的课题,目前人类还 掌握得很少,还需要科学家,哲学家对它们做大量的研究工作,才能逐渐揭示出它 们的实质。 (六)、可计算性应当是一个哲学定义 网友“一旁观者”虽然对生物学是一窍不通的,不过对图灵机,可计算性等倒 略知一二,对“愚人”的“漫谈图灵机与机器思维”文中的一些观点以“也谈谈图 灵机”(2000/01/29/21453.html)做了提示: 先谈谈什么是可计算性。所谓可计算性其实应当算是一个哲学定义。 通俗的说如果存在一个机械的过程,如果我们给一个输入,这个过程(或 机器)就能在有限步内给出答案,那么这个问题就称作是可计算的。显然 这个定义极不严格,所以从本世纪(应当说是上世纪)初就有人试图给出严 格的定义。人们最早考虑的一个类是“递归函数”,现在称为“原始递归 函数”,虽然其定义很简单,但当时人们所能想象得到的可计算函数都是 原始递归函数。(如果在现有的程序设计语言(比如说C)中去掉goto,while ,for,repeat语句,那么我们可能写出的函数就是原始递归函数)所以一度 人们猜测原始递归函数就是可计算函数。可是不久就发现了一个用多重递 归定义的函数但不是原始递归函数。于是数学家们又在原始递归函数的定 义中加了一个“极小”算子,由此得到了广义递归函数。而与此同时,其 他人也在做着类似的工作。丘奇定义了一种叫lambda-演算的系统(lisp和 scheme语言就是从lambda-演算来的),图灵定义了他的图灵机。 所有这些系统都是从很简单的定义得到了很广泛的函数类。丘奇证明 了所有这些表面上完全不同的系统其实定义了完全相同的函数类,这就说 明这些定义背后有某种内在的东西。丘奇据此提出了著名的丘奇论题:直 觉可计算的函数类恰好就是广义递归函数类或者说是图灵可计算函数类。 要说明的一点是,丘奇论题不是公理,也不是猜想,因此也无法证明 或否证,你要么相信,要么不信。因为直觉可计算的函数类不是一个严格 的数学定义。不过因为后来人们给出的各种计算模型实际上都得到的是图 灵可计算函数类,因此现在已没有什么人怀疑丘奇论题了。 从丘奇论题来看,我们是不可能造出能计算图灵机不可计算函数的机 器的。 另外大胆说一句:不可数无穷纸带的图灵机不可能比可数纸带的图灵 机更强大,原因很简单:图灵机要求在有穷时间内停止,而所有可计算问 题都是对自然数而言的,所以即使是不可数无穷的图灵机,我们在计算中 最多也就用到了可数无穷的纸带。 最后再谈一下中止问题(Halting Problem)。我想翻译成停机问题更 合适一点。这个问题是:是否存在这样一个算法,如果我们输入一个程序 的编码(比如C程序)作为输入,这个算法可以给出输出0或1。如果那个C程 序能够在有限步内结束,那么输出是1,否则输出是0。这个问题可以证明 不是图灵可计算的。 “愚人”对“一旁观者”的这个回帖,特别是“递归函数”的介绍,认为是很 有意义的补充。 (七)、对人工智能的误解 网友“luankan”对“愚人”和“糊涂机”关于人工智能的争论,有一些感想 ,他认为有几个问题需要澄清。在“澄清几个关于人工智能的误解”(2000/01/30 /21527.html)回帖中说道: 中国屋这一理想实验,在学术界已不成其为对图灵关于智能的定义的 反驳。实验设计者实际上作了两个假设: 一,一组无智能的部件组合起来也无智能。实验中,字典,语法书,查书 的人(或机器)被认为是无智能的,于是设计者就理所当然地认为它们组 合起来也无智能。但人的大脑是由神经元组成的,单个神经元有智能吗? 但神经元组合起来却是绝对有智能的。现在人工智能界认为无智能的部件 组合起来可以产生智能。这是人工智能研究的生存的基础。当然神学家或 玄学家可能否认这一点。不过他们关于人工智能所作的悲观的预言却在不 断的被打破。 二,机械地查书和字典能否作出可以乱真的翻译?关于自然语言的研究早 以证明这是不可能的。所以这个实验本身就不成立。 图灵机和大脑谁的功能强?计算机技术仍在高速发展,目前还未找到 明确的证据在某一方面计算机无法超越大脑。不过在某些方面如数字计算 ,计算机已远远超越了大脑。目前关于大脑的研究认为它在神经元这一层 次上并无特异之处。愚人通过自己的某个灵感就把大脑想象成可同时工作 在不可数无穷的记忆体上的机器。这种想象作为个人的信念也就罢了,但 若堂而皇之地提出来而又不能给出任何实际的依据,严肃的研究人员是不 会对它感兴趣的。 图灵机当然不是万能的,目前关于可计算性的研究将计算问题更据它 们的复杂度分为以下几类: Unsolvable:不可解,这类问题对图灵机不可解。 Undecidable:不可决定,可解,但给不出任何计算步数的下限。 NP-complete:解的时间超过任何多相式时间。 P:可在多相式时间内解。 实际应用上,前三类问题被认为是不可解的。即使是P问题,如果只 有高阶多相式时间的解,那么它所需要的计算资源也可能不是几十几百年 计算机硬件技术的发展所能提供的。 生活中具有NP或以上的复杂度的问题很多,如下棋时下一步的最佳走 法。但是智能并不是要求永远给出最佳解。如果能在复杂形势下找到较好 的走法,或在简单局势下找到最佳解,这同样是智能。这样的智能就足以 只用有限的计算资源对绝大多数可能碰到的问题给出有效的甚至是最佳的 解。这样的智能需要什么?它需要对某一特定问题在更高层次上的理解和 权衡,如下棋中对当前形势的判断以及所应采取的策略,和对简单但重复 出现的模式的识别,如下象棋中将死的常形和必胜必和的残局。所以智能 实际上是从对特定问题在多个层次的理解和认实中,找到对该问题有效的 解。 “愚人”对此贴出“也澄清关于反对“强人工智能假设”观点的误解”(2000/ 01/30/21555.html),认为在luankan的回帖中存在着一些问题,对于luankan回帖 的“实验设计者实际上作了两个假设”的第一个问题指出: 你的这段话可能欠考虑。你说“实验设计者实际上作了两个假设 ”,特别是,你说的“一组无智能的部件组合起来也无智能”这句话 很显然是坚持“强人工智能假设”的人强加给对图灵测试提出非议的 人的话。实际上,“中国屋试验”只是对图灵命题的判断提出的数学 上叫住“反例”的责难,它本身并不导出“一组无智能的部件组合起 来也无智能”的结论,这个命题是一些宗教界或哲学界的人另外提出 的。 很显然,提出中国屋试验的人并未使用你上面的推理去导出结论 ,反而在你的叙述里强加这条假设给别人。 对于luankan提到“但人的大脑是由神经元组成的,单个神经元有智能吗?但神经 元组合起来却是绝对有智能的。”回答: 至于大脑是不是仅仅由神经元集合的构造就能产生思维这个问题,已 经不是搞人工智能的人能回答的问题了,准确地说是他们的信仰问题。他 们信仰是可以的,可不要因为自己的信仰,就把对图灵测试责难的人说成 是与自己的信仰相反的,相信其反命题的人,这是一个逻辑错误。 “愚人”认为luankan的回帖显然还不明白这场争论的要害之处。 要害在,能不能造出有思维,或有自我意识的机器来?而不是你所理 解的一般意义下的“智能”。 计算机当然在高速发展罗,计算机能做许多人脑不能做的事谁不知道 ?但这与我要说的问题无关,问题集中在一个尖锐的点上:计算机发展下 去,是创造出一个集普天之下智慧脑袋之大成的高速度、高容量的“计算 ”机呢,还是能成为一个有独立的思维,有“我”感觉的灵物呢? 目前拿给人工智能匠人们这样研究下去我是怀疑能做出真实意义的机 器人。坦白地说,本人最近几年一直在从事人工智能的研究,本人之怀疑 造出真实机器人并不建筑在你所说的前面的有先验色彩,有信仰色彩的那 段话上,而在:“我”复制的二律背反的逻辑矛盾上。(参见拙作《我思 故我在》)。 “愚人”对“实验设计者实际上作了两个假设”的第二个问题所谈到的“愚人通过 自己的某个灵感就把大脑想象成可同时工作在不可数无穷的记忆体上的机器。这种 想象作为个人的信念也就罢了,但若堂而皇之地提出来而又不能给出任何实际的依 据,严肃的研究人员是不会对它感兴趣的。”回答道: 看来你还没有仔细看我的文字,我不是说只是当成“茶余饭后”作谈 资已经满足了。信念更谈不上,当然不会有严肃的研究人员对它感兴趣, 我自己都不会拿它当课题。 (八)、扩大化了“中国屋实验”的含义 网友“GTI”对luankan的回帖似呼有一些特别地反应,他回了“LU兄显然扩大 化了‘中国屋实验’的含义”(2000/01/30/21558.html)一个帖。可惜漏存,特别 是《新观察论坛》(临时版)的消失,而无法在此叙述。现在只有看“luankan”的 “简答”(2000/01/30/21592.html)对“GTI”的回帖反应: 一,人工智能并不是研究如何造出和人脑机制完全相同的机器,而是研究 如何使机器解决人脑所能解决的甚至是人脑不能解决的问题。 二,请勿乱用无明确定义的概念,如“思维”“灵性”。这里讨论的是有 没有智能的问题,而不是有没有思维的问题。中国屋中查书的人和计算机 一样,所做的都是计算。若要讨论计算是不是思维,请你先给出你对思维 的明确定义。 三,中国屋问题试图在不给智能作出明确定义的情况下,用逻辑证明中国 屋无智能(不懂中文)。这显然依赖于对各组件无智能的假设,和无智能 的组件结合起来也无智能的假设。认为字典,语法书,查书的人单独的看 都无智能(不懂中文)是可以接受的。但后一假设(无智能的组件结合起 来也无智能)是无依据的。所以中国屋问题的结论逻辑上不成立。 我写的对中国屋问题的两个反驳(从逻辑上和从实现上)都是人工智 能入门课必学的常识。本人只是有幸受过这些基础训练而已,如愚人所说 ,只是个入了门的匠人而已。还不敢以“思想家”的身分对这一问题写出 更深刻的个人认识。 至于愚人对“灵性”“灵物”的著迷,搞人工智能的人同样为此著迷 。对于到底“灵”在哪这一复杂问题,人工智能当前选择的是从研究更简 单更具体的问题入手。当然用严密的逻辑给人工智能作高层次的研究方向 的指导也是欢迎的。但如果有人试图给智能引入超自然的神秘的因素,抱 一种“灵就是灵,算不出来”的态度,那也只好个自好自为之了。 对于“luankan”的叙述“愚人”在“我原帖的中心意思”(2000/01/30/21601. html)做出的反应是: 我的原帖谈到的“强人工智能猜想”,即造出与人类同样的“智慧” 机器,这里,“智慧”这个词在猜想提出者来说并未明确定义,然而猜想 提出者说这个机器有和人类一样的“智能”,这就隐含了也应具有人类一 样的自“我”意识。 自“我”意识是一个哲学上至今争论不休的概念,不过每一个人都能 亲切地体会到它的意义,我的文章谈的是:能不能造出有自我意义的计算 机来的问题,而不是谈泛称的“人工智能”问题。 “中国屋试验”也不是谈泛称的“智能”问题,而是要驳斥把图灵测 试理解成具有人类思想的机器的检验之不足。如果把它理解成对泛称的智 能的不可实现,则显然没有理解到这个(理论)试验的实质,因为谁都知道 :计算机能够做人脑的一些工作或甚至人脑不能做的工作。所以假如你用 这段帖来回答我的原帖,我不会这样反驳你。 “愚人”想,“luankan”并未真正理解到“愚人”原帖的意思。如果“luankan” 老提什么“人工智能入门课必学的常识”来吓唬人,那“愚人”就要怀疑“luan kan”是否真正理解到人工智能入门课必学的常识了。 (九)、计算机无有思维的关键 在这场人工智能争论就要结束时笔者以“li”网名帖出了“狐狸对计算机人工 智能的认识”(2000/01/30/21611.html)一帖,认为: 日本曾于八十年代宣布进行“第五代”电脑计划至今,但真正的智能 型电脑的来临似乎仍未有期,而机械人则仍只是工厂中高度专业化的机器 ,所谓机械佣人或机械保姆仍只存于科幻电影之中。 为什么具有思维的人工智能机至今没能造出?(注:这里指的是一部 在认知和思维能力方面皆与人完全无异的机器,而不是指今天最先进的 工业机械人或“专家系统”) 这是否是人类在空想?面对这些问题使人 们对机械是否可以思维产生怀疑。其实有关机械是否具有思维从电脑诞生 以来(1946年)就开始争论,1950年英国数学家图林(A.M.Turing)发表了一 篇《计算机械与智能》文章,提出了一个“图林试验”(Turing test), 作为判定机器是否拥有思维能力的标准。试验假设房间有一个人和一台电 脑,房外的人可以通过打字机或荧幕显示分别与房中两者交谈。图林的论 点是,如果我们无论透过如何刁攒的问题也无法识别房中何者是人何者是 电脑,那么便不得不承认,房中的电脑具有与人一样的思维能力。也就是 说,它“懂”得思维。 八十年代,柏克莱大学的哲学家西尔(J.R.Searle)发表了一篇《心灵 、大脑与程序》的文章,针对“图林试验”提出了“中文字房实验”( Chinese Room Experiment),简单地说这个实验是一个不懂中文的“老外 ”在一间装满了中文字卡的房间,老外通过英文手册就可以工作。通过这 个实验西尔的结论是电脑永远只会有语法(Syntax)而没有语义(Semantics ),无论电脑程序写得如何复杂,也无法出现人脑(即真正的心灵)所拥有 的一项特质:意向性(intentionality)。最后他说“无论大脑如何产生意 向性,这种过程必不等同于一项电脑程序。因为单靠电脑程序本身,绝不 足以产生意向性”。 1989年, 牛津大学彭罗斯(R.Penrose)发表了《皇帝的新心灵》一书 ,重点探讨人的思维是否可以还原为不同的程式(algorithms),而最终归 结为电脑程序的运作呢?他以现有的数学体系给予否定。而思维和意识则 无法还原为程式的运作,那是否表示它们超乎了科学研究的范畴呢?对这 个问题彭氏认为整个现代科学架构中欠缺了极关键的一环,以至我们无法 了解自我意识的本质。同时他也认为这一“缺环”并非甚么神秘不可知的 事物,而最终可以被科学探究。 计算机的运作和人脑的运动为什么会有极大的差异呢?有人认为人脑 比计算机更“复杂”,目前,一部先进计算机的主体记忆容量大约有10的 8次方字节,这比人脑神经细胞的数目10的11次方差了大约两、三个数量 级。因此提出“并行电脑革命”。 狐狸认为,解决计算机思维的问题,以增加计算机主体记忆容量的方 式是无效的,计算机无有思维的关键是人类还没有完全了解自然界。具体 地说,现行的计算机所使用的莱布尼茨二进制,是计算机不能思维的根源 ,因为莱氏的二进制与自然不符。 “狐狸”的回帖使“愚人”兴奋,回帖喊到“狐狸君所见甚合吾意”(2000/01/30/ 21615.html)。“狐狸”为此回“谢谢愚人希望多多交流”(2000/01/30/21628html )一帖致谢,并进一步谈了看法: 鄙人对人工智能的思考比较晚,1996年与他人做过砌磋并写出“ 莱布尼茨二进制附会于太极八卦太极二进制为思维电脑提供可能”一文。 为了进一步思考人工智能,鄙人开始对莱布尼茨二进制进行了系例考证。 在考证中得到许多启示,进而又对莱布尼茨和基歇尔(A.Kircher,1602- 1680)等“组合论”(DE ARTE COMBINATORIA)了解。 在莱布尼茨那个年代西方哲学大师就想构建一中“宇宙语言”也可称 为“人类思想的字母表”,而莱布尼茨把这种语言最后寄托在伏羲八卦上 ,但他用0和1理解和编号组合存在不足。 “莱布尼茨二进制附会于太极八卦太极二进制为思维电脑提供可能” 一文中所提杨雄三值,在“莱布尼茨发明二进制后(1703)荷兰阿姆斯特丹 的CESAR CAZE于1704年通信谈论三值,而莱布尼茨不愿接受,这可能是莱 布尼茨因CAZE过于指责莱布尼茨二进制源于来华传教士卫匡国的原故。如 果莱布尼茨接受CAZE的劝说,这世界发展就有所不同。 计算机能否思维关键在于人类对自然界的认识程度,现在如果人们对 自然都不能精确地描述,也就谈不上什么制造。所以鄙人一直在思考对自 然地描述。 当今的人工智能已不在是电脑专家独自思考的问题了,而是全社会参 与的问题。 (十)、二进制与自然不符 由于“狐狸”把计算机无有思维的关键不仅归结于人类没有完全了解自然界还 责怪起了现行的计算机所使用的莱布尼茨二进制,是计算机不能思维的根源,因为 莱氏的二进制与自然不符。网友“tt”在“嘿嘿所有的思维现在都已经可以实现了 不存在任何技术困难”(2000/01/30/21693.html)一帖中反驳道: 如果用广义的思维概念,那么任何东西都在思维;如果用狭义的思维 概念,那么专家系统都在思维,任何人的思维都可以作成专家系统。因此 ,实现任何思维都不存在技术困难。 什么是广义思维?某个系统对环境作出的反应而已。 “一旁观者”也对“狐狸”的看法不服气,他在“恕我直言”(2000/01/30/21670. html)一帖中说道: 计算机的智能问题和几进制无关。从逻辑上说,二进制和八进制是等 价的。从计算机技术上说,现在完全可以用软件模拟任意进制。 现在更本质的问题恐怕是还没有搞清楚什么是智能。十几年前人工智 能热了一阵,现在好象已经是无疾而终了。当存储量和速度以18个月翻一 番的速度增加时,大型数据库完全可以实现人们以前认为要用智能才能解 决的问题。 “tt”十分高兴了,在回帖中喊到:“旁观者君的说法可以做我楼上贴的佐证”( 2000/01/31/21686.html)。 (十一)、以‘动态结构’体现智能 网友“无畏者言”认为使用二进制不是电脑和人脑的根本差异。实事上,大 多数神经元细胞只有二值状态(excited or resting state),赞同“并行电脑革 命”,他在“有一点我不同意”(2000/01/30/21682.html)回帖中说道: 这个观点我有点赞同。单个神经元当然没什么智能,可是大量的单元 之间复杂的,动态的连接实现了智能。 同时“无畏者言”认为: 目前机器智能和人脑智能的根本差别,我认为在于,后者以‘动态结 构’体现智能。从结构的复杂度来看,计算机是不好和大脑比的。’动态 ‘的结构自组(自我学习)更是电脑所不能。 “Turing test”所“证实”的思维,我不敢苟同。 “狐狸”针对“无畏者言”回了“有两点向无畏兄请教”(2000/01/31/21765.html )一帖,先是对“无畏者言”所说的“大多数神经元细胞只有二值状态”回问: 我们现在所知的神经元细胞真的是二值状态?还是我们把它理解成二 值状态? 接着“狐狸”对“以‘动态结构’体现智能”做了回问: 这里说的“动态结构”与狐狸的“莱布尼茨二进制附会于太极八卦太 极二进制为思维电脑提供可能”一文中所述“现在我们开始讨论莱氏的二 进制中的0=1与太极二进制的0=(+1)+(-1)数字转化关系的不同。0≠1而是 0=(+1)+(-1),0和1是两个互不能转换,而0与(+1)和(-1)可以转换,从而 体现出0=(+1)+(-1)具有自然界物质的活体循环性,而0=1不具有活性,更 不符合数学逻辑。所以说莱氏二进制是一个不具有活性的体系,其根源是 没有负数或第三者参与二进制。由此可见,一个不具有活性的二进制体系 是描述不出自然界物质运动演化规律的,它又怎能创造出与人类大脑思维 相同的电脑呢?”有何种本质区别? “狐狸”在“谈一点”(2000/01/31/21768.html)一帖中回答了“一旁观者”的“ 恕我直言”回帖,他说: 狐狸认为计算机无有思维的关键是人类还没有完全了解自然界。现行 的计算机所使用的莱布尼茨二进制,是计算机不能思维的根源,因为莱氏 的二进制与自然界不符。而非旁观兄所理解的“二进制和八进制是等价的 ”。在狐狸的“莱布尼茨二进制附会于太极八卦太极二进制为思维电脑提 供可能”一文中关键阐述的是如何描述一个活化的物质。楼上无畏兄在“ 有一点我不同意”中所说的就是这个问题。“目前机器智能和人脑智能的 根本差别,我认为在于,后者以‘动态结构’体现智能。从结构的复杂度 来看,计算机是不好和大脑比的。’动态‘的结构自组(自我学习)更是电 脑所不能。” 无畏兄所说的人体“动态结构”和“动态”的结构自组(自我学习)我 们是否真正地了解? (十二)、二值与三值状态 “无畏者言”针对“狐狸”的回问在“狐狸君请进”(2000/01/31/21895.html )一帖中试答了“狐狸”所问的“我们现在所知的神经元细胞真的是二值状态?还 是我们把它理解成二值状态?”: 多数神经元细胞的确只有二值状态。这个状态通常由膜电压定义的。 当细胞膜上有足够多的离子通道被信号激活(一般有一个特定的阈值),胞 体则由RESTING状态(0)(e.g.V=-70mV)转为激活态(1)(e.g. V=30mV)。这 一过程称为DEPOLARIZATION。是一个典型的NONE-OR-ALL的机制。Mother Nature显然意识到数字传输比模拟传输来得可靠。数字系统比模拟系统更 ROBUST。所以单个神经元细胞只能实现极其简单的逻辑功能(相当于一个 阈值函数)并且没有任何存储信息的功能。 那人脑是如何实现智能的呢?目前的科学还只能给出不全面的猜测。 我的理解是,记忆和推理是靠这些大量的简单逻辑单元之间的复杂联结实 现的(我所谓的结构),而这一结构是动态的,从而有了自学习,自我完善 的可能。 人工神经网络理论借鉴了这一思想。信息或知识反映于神经元之间的 连接权值,推理或计算(或这一网络所对应的函数)则由神经元的层次关系 定义。(i.e.这是几层的网络,层与层之间的关系,同层元之间的关系等 等)。然而,人工神经网的不足是,自学习功能不足(大多只能修正权值), 这是因为没有动态的结构自组功能。 让我们来对比一下电脑。电脑是逻辑单元和存储单元分离。逻辑单元 数目极少(例如单个CPU)。存储以非结构的字符形式。 而人,例如,当我们想到‘花’,决不仅仅是这个字符。有关花的形 象,气味,……以及给人带来的愉悦感都会以神经元GROUPS的某种特定方 式被激活的形式联想起来。而这些相关单元和被激活时特有的PATTERN就 是我们脑中关于‘花’的含义。存于脑中的信息不是孤立的。 在回帖的最后,“无畏者言”强调他还是不认为‘二进制’是电脑不可能有智慧的 最根本原因。 “狐狸”在“与无畏兄谈人工智能”(2000/02/03/22444.html)一帖 中首先认为在人工智能问题上两人有一定的相同观念。 “狐狸”赞同“无畏者言” 所提到记忆和推理是靠这些大量的简单逻辑单元之间的复杂联结实现的 (我所谓的 结构),而这一结构是动态的,从而有了自学习,自我完善的可能。 同时“狐狸” 认为: 对人脑如何实现智能确实人们的猜测还不全面。近几年我和我的同事 做了一点思考,我们倾向“目前的科学还只能给出不全面的猜测”这个观 点,并对自然界的描述和表达做了系列的思考,二值描述和三值描述,两 者谁能正确表达自然界,即“动态”。 许多人对我们的思考并不完全了解,总认为二进制与三进制没有什么 区别,无论二进制还是三进制他们都可以互换。如网友旁观在“恕我直言 ”一贴中所说的:计算机的智能问题和几进制无关。从逻辑上说,二进制 和八进制是等价的。从计算机技术上说,现在完全可以用软件模拟任意进 制。 这种理解,我们认为网友旁观过于依赖“软件模拟”,而忽略最基本 的一个自然界规律,即机体与功能的关系。机体与功能的关系在解剖学与 生理学表现非常明显,一般的规律是有什么机体就会有什么功能,有什么 功能就应该具备什么机体。 现行计算机中的二极管是一个二值机体,它接受二的旨意,排斥三的 旨意。自然界或者说思维过程如果不是二值,而是三值的话,就会使现行 计算机的机体明显与自然界或者说思维过程存在差距,尽管网友旁观如何 “用软件模拟任意进制”也改变不了计算机二值机体,消除不了计算机的 机体与自然界或者说思维过程存在的隔阂。基于这一点我们在“莱布尼茨 二进制附会于太极八卦太极二进制为思维电脑提供可能”一文中强调:“ 解决计算机思维的问题,以增加计算机主体记忆容量的方式是无效的。” 关于“无畏者言”所回答的“我们现在所知的神经元细胞真的是二值状态?还是我 们把它理解成二值状态?”问题,“狐狸”认为: 已清楚可见多数神经元细胞只有二值状态是人们的现行理解,这种理 解可能随着实验仪器的改变而改变。正象当初人们对原子的理解一样,认 为原子只是由电子和质子构成,随着实验仪器的更新和实验水平的提高发 现中子,使原子结构由二值变成三值。 (十三)、小 结 从上述网友们对人工智能的争论,首先可知目前人们对人工智能的理解有所不 同,有人把人工智能理解成一些计算机的辅助设计和专家系统,这是误解。 新华 社记者杨骏所报道用现有的计算机技术模拟人工智能已取得较大成绩,而这些成就 却是一些计算机进行的辅助设计、翻译、检索、绘图、写作、下棋……等方面的发 展。网友“tt”认为“如果用广义的思维概念,那么任何东西都在思维;如果用狭 义的思维概念,那么专家系统都在思维,任何人的思维都可以作成专家系统。因此 ,实现任何思维都不存在技术困难。“一旁观者”认为现在更本质的问题恐怕是还 没有搞清楚什么是智能。十几年前人工智能热了一阵,现在好象已经是无疾而终了 。当存储量和速度以18个月翻一番的速度增加时,大型数据库完全可以实现人们以 前认为要用智能才能解决的问题。 “愚人”对人工智能的理解和解释是正确的,关键问题是能不能造出有思维, 或有自我意识的机器来?计算机当然在高速发展罗,计算机能做许多人脑不能做的 事谁不知道?但这与我们要说的问题无关,问题集中在一个尖锐的点上:计算机发 展下去,是创造出一个集普天之下智慧脑袋之大成的高速度、高容量的“计算”机 呢,还是能成为一个有独立的思维,有“我”感觉的灵物呢? 可计算性问题是本次网友们争论的重点。“一旁观者”在“也谈谈图灵机”一 帖中做了“所谓可计算性其实应当算是一个哲学定义”的提示,这是研究人工智能 能否成功的一个入口。既然是一个哲学的定义,人们必然要回归到“可知论”和“ 不可知论”争论。 从回帖中网友们有一种倾向,就是人类对大自然的规律的了解还远远不够,“ 无畏者言”比较了人脑是如何实现智能的,认为目前的科学还只能给出不全面的猜 测。 记忆和推理是靠这些大量的简单逻辑单元之间的复杂联结实现的(我所谓的结 构),而这一结构是动态的,从而有了自学习,自我完善的可能。 这种观念一般是 受牛津大学彭罗斯的《皇帝的新心灵》一书影响,人的思维是否可以还原为不同的 程式(algorithms),而最终归结为电脑程序的运作呢?以现有的数学体系是否定的 。而思维和意识则无法还原为程式的运作,那是否表示它们超乎了科学研究的范畴 呢?对这个问题彭氏认为整个现代科学架构中欠缺了极关键的一环,以至我们无法 了解自我意识的本质。同时他也认为这一“缺环”并非甚么神秘不可知的事物,而 最终可以被科学探究。 “狐狸”明显受到彭罗斯的熏陶,认为现代科学架构中欠缺了极关键的一环可 以被探究。为此责怪莱布尼茨二进制造成了电脑无法思维根源。“狐狸”支持人工 智能研究者对人体神经网络的研究,同时认为在研究神经网络的重点不是人脑有多 少根神经线路,而是揭开神经传递的机制,神经元细胞是二值状态,还是三值状态 或者二三复合状态。 对于思维的可计算性问题研究,莱布尼茨做过探索,发展了思维是一种计算的 思想。他曾幻想建立一种“万能数学”,它应当研究“在想象范围内能进行精确规 定的一切东西”。数学的主要部分是“组合论”,即操作公式的科学。他说:“在 哲学中我找到了一种方法,达到了笛卡尔和其他人借助代数和分析在算术和几何方 面所达到的目的,但是对所有科学而言,卢利和基尔早就用组合论的方法制定了这 种哲学,只是我们未能深入到它的本质中去,可是他们指出了一条道路。据此,世 界上所有现存的组合概念都能够分解成数目有限的简单概念,它们好比是上述组合 概念的字母表,用组合该字母表的字母的正确方法能够重新获得所有东西及其理论 依据。这个发现,如果上帝能让我完成的话,将是我所有发现的根基,它本身将是 非常重要的。” 莱布尼茨所说“在哲学中我找到了一种方法”是什么?是中国八卦图!在莱布 尼茨的《组合论》(1666)中清楚可见莱布尼茨已被传教士彻底汉化,他已把古希腊 的“四原素”(火、气、水、土)演变成八元素(火、热、气、湿、水、冷、土、干) 。莱布尼茨在《关于二进制算术的阐释——二进制使用简单的符号0和1,其用途, 及其赋予中国古代伏羲八卦的意义》(1703)文中说到中国人也认为伏羲创造了汉字 ,尽管经过漫长的时间,变化很大,他在算术方面的实验不禁让人联想到汉字里可 能存在与数字和思想有关的重要的东西,如果我们比中国人更能挖掘汉字的本源, 就可能知道他在造字时考虑到了数字。白晋神甫很倾向于沿这条路深入地研究下去 ,并很有可能在许多方面获得成功。但我不知道汉字里有否接近于我设想的“万能 数学”中某种必要的特点,即所有来自概念的推理,通过某种计算方法,也可来自 字符,这将是有助于了解人类思想的最重要的方法之一。 现实告诉人们莱布尼茨未能找到“人类思想的字母表”,但他的思想激发了许 多科学家的智慧。“狐狸”所提扬雄三值状态似乎在想步莱布尼茨的后尘寻找“人 类思想的字母表”。其实荷兰阿姆斯特丹的CESAR CAZE于1704年与莱布尼茨通信谈 论过三值,而莱布尼茨却无动于衷。 “狐狸”的观念认为世界是可计算性的,但这个可计算性必须建立在对自然界 的基础组合深化理解,既二值与三值的表述,怎样能够精确描述自然的问题。这是 人工智能能否实现的基础。 本文是一篇社会综合性的汇集,它反映出人们对人工智能的理解和认识。当今 人工智能的研究已成为全社会的参与,基于这一点文中一定有些奇谈怪论,希望大 家批驳,同时希望大家能够理解“愚人”所说的我们的争论只是当成“茶余饭后” 作谈资已经满足了,信念更谈不上,当然不会有严肃的研究人员对它感兴趣,我们 自己都不会拿它当课题。以免让中国大陆的科学家扣上“伪科学”的帽子,可知“ 伪科学”当今就是过去的“历史反革命”和“现行反革命”。 最后需要说明的是本文在整理过程中会有一些问题和错误,希望网友们及时批 评指正。(原文发表于2000年2月10日)
人工智能技术的走向
最新推荐文章于 2024-11-05 17:47:47 发布