人机五问题的回答

【爱因斯坦曾告诫我们:“许多能数清楚的东西并不重要,许多数不清楚的东西却极有价值。”很久以前,提了五个问题,没想到刘华林老师还记着……或许所有的“元”都在系统中变化着,包括电影、戏剧和人生。】

这些回答中的对问题词汇的理解可能与提问者有一定出入,但笔者尽量保证回答的可理解性。

问题一:人机的交互之间,哪些可以形成知识表征?哪些难以形成表征?

回答:哪些知识表征能否形成是个边界问题,即区分什么是知识和什么不是知识。知识,在建模的角度上看,应当是知识组装协议和这种协议引发的人类行为改变。知识组装协议是临时使用的一个词,意在描述知识的机械性:学习知识的必备条件就像电脑存取文件,需要预先确定正确的编解码方式,调用知识组装协议约定的公用词汇和公用概念。容易形成知识表征的,就应当能被稳定地表述,因为稳定意味着变化少。但这种稳定并非通常意义上的稳定,对这种稳定而言,完全随机和完全恒定都是稳定,只是这两种稳定所采取的协议(识别和定义方式)不同,例如,生成具备分别具备完全随机和完全恒定观测性质的数列,在算法复杂性上并不高;那么存在不容易形成知识表征的吗?现代复杂科学研究已经提供了一个有趣的视野:有序和随机的边界会产生临界性的极高的复杂性。在这个问题下,这就是复杂知识。把这个观点用协议的概念作表述,两种知识协议间存在两种知识协议不可表述的另外知识协议。此时,对于复杂知识,我们当然已经得出了一个协议以判定这种复杂知识了:不能被完全随机和完全恒定类协议正常建模的,但注意这是判定而非生成,生成与判定的区别在于计算复杂性,这里不做赘述。这个问题集中于容易与不容易的问题而非有无的问题,由于我们总是用知识讨论知识,所以总能给出知识表征,对不能表征的也可以牵强地说:不能表征也是性质,仅对笔者而言,有无表征这个问题是无意义的:因为允许用判定而非生成/构造的方法来表征知识。关键在于能否容易地形成知识表征。复杂知识是难以形成知识表征的,因为其临界复杂性并不能被经常使用的两种思维模型所处理。前文借协议的概念表述复杂知识的特性,我用了“两种”而非“完全随机和完全恒定”,因为在这个问题上我有一种强烈的直觉:完全随机或完全恒定只是细节问题,仅是建模时提取不同的知识特征。任意两种不恒等的建模方式,都存在这两种建模方式难以表述的临界复杂性知识,即知识类似实数,具有稠密性。而知识表征仅是一个个知识点搭建的数列,存在致密但又无法列举的“无知点”。因此,知识表征是容易形成的,知识表征取得难易与环境无关而与方法有关,不容易形成的知识表征总是存在的。

问题二:人类知识是如何迁移到机器上的?怎样评估机器学到了人类的知识?

回答:有两种方式,这里临时发明两个词:完全迁移和对话迁移方式。前者是先将人类思维限定到符号机器上,再通过同构式的对应,将表示为符号操作的形式模型实现为现实的机械性模型。将人类思维限定到符号机器上,就是放弃人类思维的某些“活性”,也就是放弃所谓的算计,脑中只留下一些符号,以及这些符号上非此即彼不可混淆的操作。无论是发明一套公理体系,还是在明示或暗示遵循这套公理体系之下开发出的一个模型,都是完全迁移性质的迁移方式。实际上完全迁移方式不必限于此,不一定必须以机器实现,也可以借助人类实现。因为人类也作为物理对象存在,将人或人的行为作为原子化的对象仍可以构建“文明机器”,简单来说就是我们社会中严整有序的政治制度(至少在书面上)。这实际上暗示对“机器”和“人类”的区分是依赖特定迁移方式的语境决定的,人类不总是人类而常常可以是机器。后者,对话迁移,是假定某些机器一定会具有人类思维而不问为什么,并将机器分为人性机器和机性机器。在这个论调下,人类或者由机器实现的通用智能均是人性机器,而机性机器则是被施以完全迁移方式的机器,亦或文明机器语境下的人类。对话迁移方式尝试让人和人性机器进行对话,人对机器或人性机器对机性机器是无法进行对话迁移的,在这个立场下笔者支持“延展认知”的观念,认为机性机器只是人的延伸。笔者认为人对人性机器的对话迁移实际上等价于人对人的对话迁移。那么可以参考人与人的对话迁移理解人与人性机器的对话迁移,现实世界人与人是如何进行对话迁移的呢?这个问题的解答首先要求回答人或人性机器是如何用模型表示的?这实在是一个open question,笔者个人给出的一个具体路径是:多体系统的仿生,即采取大量微观计算单元以人工生命的方式表示人/人性机器。假设我们的确可以给出人性机器的一种表示,那么这个表示应该是抗干扰的——对任意来自其他人性机器的完全迁移(非对话迁移)具有“鲁棒性”。这里的“鲁棒性”是指人性机器可以自由地将外来信息表示为人性机器内部自己可理解的逻辑。要如何理解这个性质呢?现在假设,为了实现人性机器,我们有一个基础的模型框架,并且从基础框架导出了一个实例,是我们所要实现的人性机器,回想我们要求这种模型表示是“抗干扰”的,这允许我们任意改变模型的内容和查看所实现的人性机器因此产生的变化。以上提出的性质认为,实现人性机器的基础模型框架,对其外来者所做出的所有机器内容(源码)改变,人性机器本身可观测到的表现是不变的。给两个具体的例子:先看反例,我们用编程语言写了一个非人性机器,比如写了一个回答器,由一个固定的答案库、决策树和搜索算法根据输入的提问文本给出回答,实现这个回答器的代码在编译时可以对应一个token表,这个表里有回答器所设计的变量名、所调用的函数名、大量的编程关键字如if、while等,现做出干扰,随意更换这些token并直接编译而不管其合法性,然后运行并观察程序表现,显然可以找到大量的调换token的方法使被实现的回答器的观测表现异常(相较于未做token调换时的预期表现),所以回答器不是人性机器。进一步特别地考虑这个例子的特殊点,这里是设想用编程语言写了程序(用其他的图灵机写这个程序也没问题),我们特别引入算法信息论的一个常数:chatin数,chatin数定义为:对编程语言随机输入一段字符串,其可以正常执行(不报错)且有限时间内结束(不进死循环)的概率,对于上面反例,我们对编程语言的干扰产生的异常与未异常的比较,显然对应一个chatin数。而chatin数不可计算(图灵机不收敛)。干扰性异常的不可计算性是很深刻的性质,但目前无法很好地阐述它。再看正例,我们用多体仿生工具写了一个人性机器,具体的实现工具采用元胞自动机。这种元胞自动机实现的人性机器的具体例子是如何的?这个问题的精确描述依赖于解决人与人是如何进行对话迁移的问题,此处笔者只给出较感性的表述,例如我们在元胞自动机内形成了一团巨大的元胞块,不问如何形成的,这个元胞团块错落有致、体态丰匀、混乱而有序(仅作比喻)……作为基础模型框架的元胞自动机,与反例编程语言相对应,反例被干扰的是编译器的token表,而正例元胞自动机有其“超参数元组”,包括元胞间的邻接几何结构、元胞自动机的规则、元胞空间的拓扑形状等。同样在各个参数类型内随意更换超参数的值而不管其合理性,接着运行并观察“人性机器”实例的表现。可以发现,多体系统仿生工具和编程语言工具上产生的实例的异常行为是不同的,当然这种不同不会是因为多体系统仿生工具的确做到了模拟人性机器,而是多体系统仿生工具是自组织、未定义异常的:对干扰如果出现表现异常,设计者可以亲手改变某些微观元胞的状态,随机应变;与之相比一般的编程语言工具就非常严格,对正确性要求高,对异常反应灵敏。笔者这是一个例子,意在展示这两种路径暗含的区别,因为这两种工具同为图灵机,互相模仿另一种工具的形式并无问题,只是使用这两种工具的场合印象的区别对于理解"人性机器"与"机性机器"区别非常重要。这种“区别”实际上是笔者的信念,笔者目前尚无法给出元胞自动机上人性机器实现的实例,未给出构造性的实用可验证框架,只是假想可以借多体系统仿生方法可以实现人性机器(同样地,重要的是多体系统仿生工具的那种“味道”,由于图灵机等价性,用编程语言同样可以实现人性机器甚至效率更高),并继而比较有效方法与无效方法的区别,接下来就尝试描述这种直觉的合理性。"人性机器的鲁棒性"是可操作的,使我们可以通过干扰检验来测试:被干扰机器是否为人性机器?也即是否可以对话迁移?还是只能发生完全迁移?这也是“完全迁移和对话迁移”的看待知识迁移方法的价值所在。另一个问题是如何评估机器学到了人类知识,在这个问题的回答下,可以认为如何评估的方法不重要,重点是大量的高频的评估的行为/动作,因为”如何评估“所采取的各种花式花活实际上是高度依赖应用场景的、高度依赖人先有个预设再做“完全迁移”的,但如若将设计机器和评估机器合为一体,无视其应用场景,则是一个标准的干扰检验的测试,应尝试这种测试搭建机器模型,而把依赖应用场景的各色“是否有用”的评估(一般来说,学到知识就是特定应用场景下有优异表现)放在最后阶段。

问题三:机器只学人类已有的旧知识,能否学到或发现新的知识?

回答:这个问题的关键矛盾在于机器的行为总是魔术式的呈现出被设计的样式,即使机器学习到了旧知识,实际上也是人类设计者预定了机器所要输入的知识所包含的某种结构或模式,以及根据这些结构所应表现出的行为。简单地说,机器的思路基本要遵循这个方式,新的知识即使被发现,也是“平凡的”,因为人类设计者已经预知机器会得到的知识的很多性质,只是借此性质展开搜索。展开这一点,机器不但不是学旧知识,反而是展现旧知识,不是搜索器,而是搜索目的下的生成器。那么机器有没有可能发现新的知识?或者换个说法,我们能否学到机器发现的新知识?然而,颇具讽刺的是,这些新知识可能不但有而且很多,就是“涌现”现象,只是涌现基本不具可解释性:涌现的“无中生有”般的细节很难说清楚。而可解释性是人类理性理解问题的主要条件。可能存在新知识,但我们无法学会,因为我们只会保留机器的玩具化的一面,而剔除其不确定性和不可解释性。除却涌现的新知识,所有知识都是旧的:如若将知识视作对象的特征,因为构建对象所采用的概念是短时间内数量和内涵均受限制的,故对象上导出的知识也是因此受到基本限制的。我们已经发展出了大量的逻辑和数学手段从对象导出知识,但如何扩张对象则是一个“无意义”命题:可扩张的方向是无限的、随机的、不可计算的。这种矛盾导致,知识很快就变得陈旧,甚至有大量的知识没有资格被陈述——因为导出这类知识的方法很轻松很强大足以代替,知识的方法代替一部分知识的陈述成为知识主体。问题一旦确定,结果已经注定。那么新知识是如何被发现的?实际上理性的人类个体也常常受困于寻找新知识以获取某些真理的或实用的价值:帝王琢磨掌控人心,资本家钻研击败竞争对手,科学家寻求更完善的理论,这都是依托于个体旧知识的功利取向。例如上世纪的人们预测今天已经可以轻松太空航行,甚至设想好了这类航行所基于的能源等若干技术。但这并不符合现实世界的发展方向,甚至有人认为“人类拉胯”,将技术不成功诉求于21世纪的人类社会的很多弊病。这些都是旧知识的表现,上世纪的科学知识导出了一些航天工程对象在现实中可以存在的旧知识,但是现实对其的验证与否定则是新知识,现实带来的其他方向发展的科技也是新知识,新知识否定了旧知识,并发现旧知识上的功利取向和愿景是乌托邦和空中楼阁。在很大的程度上,那些足够新的知识,它们的发现伴随人类社会整体的发展所遭遇的新现象新问题,是被迫引入的,而非封闭的人类社会中的人类个体按照旧知识构造出来的,或者新知识是对这些旧知识的一个验证。在很小的程度上也可以包含很多"新知识",只要构造一个方法能判定新的知识够不够新即可。然而正如我已经提到的,能够构造出方法判定知识够不够新本身就展现了对新知识的知识,因此新知识在这点上又有一定的陈旧性,显得不够新了。这里显得有些废话,我只是指出一个现象,微观的人类个体没有得到新知识的一般方法,但不影响个体认为自己发现了新知识或者觉得自己正在发现新知识,甚至预想好了新知识的用途,这是个体对自己已有知识的反刍和酝酿,现实自会验证这些知识有没有作为知识的资格——正确性,而个体至少可以选择迅速接受现实的验证,理解新现象,扩张新知识。那么机器学到的知识都取决于人类,人类个体也没有获取新知识的一般方法,机器便也没有。但机器反刍、纠错和酝酿知识的能力不如人类,人类可以常学常新切换场景自如而机器不行,原因可能在于人机交互的方法发展的还不够。

问题四:本体构建与领域概念模型技术不成熟的原因何在?

回答:主要在于静态化的思维惯性和唯象的评价取向。本体构建的问题不在于行为学不够准确或者连接主义不够高效泛用,而在于想当然,人类思维并不具有那么无边的复杂性,问题源于脱离世界的模型。一个典型的例子:AI程序只读取预定格式的数据并输出,(相当大的程度上绝大部分模型都是该种流程),因此“数据不会说话,而是观察数据的人在说话”。数据究竟采取何种内涵:这些数据集的标签是描述草地上的羊还是羊上方的蓝天白云?这服从模型设计者的预期,AI只负责捕捉可能存在的预期的数据模式。这种静态化的模型设计流程,因其具备通用性,故不具备纠错性(错误仍旧是设计者的责任),因为其框架可以迁移到任何场景,故与场景对接的问题无法为框架所自动解决。现今所重视的鲁棒性检验只是处理这类纠错性的一种简单手段。纠错性这个概念是一种转化,把一个构造或生成问题转化为判定问题,将设计变为试错。我个人认为本体构建领域在这点仍有很大进步空间,本体构建目前仍然流行着将设计者的很多想当然的观念付诸实践,而不够重视对所构建出的本体模型实例的试错与维护。这种“不够重视”并非声讨设计者们没有设计模型流程的试错环节,而是指向将模型设计的整体流程均用试错的操作表示出来的可能性,而非传统地以原子化的谓词操作进行表示。做一个形象的比喻:不是对神经网络调参的工程,而是对嵌入向量拨弄梯度传播的方向和算式的艺术?这可能有点不着边际,但反模型反正规反还原的强试错强混沌的方法的可能性也许是存在的。领域概念模型不清楚故不作讨论。

问题五:存在元认知吗?若不存在,该如何表征世界?

回答:偏向于认为元认知不存在,我上面几个问题的观点已经暗示了我的倾向。表征世界的方法可能需要拒绝正规地建模,或者说放弃用建模的观点看待模型或机器。表征世界实操上应采取什么手段是目前难以想象的,这堪比远古人类设计物理实验流程的难度!但唯物史观的观点是新事物不会突显,必存在其时代条件。我们仍然可以尝试换一种观点看待21世纪的新现象来推测诞生于新现象的此种新方法应具备的性质。21世纪前20年,于我个人理解,软件工程、系统工程、机器学习这些兴起的领域,暗示着科学的工程化数据化,数据的采取传输,理解数据的协议,根据数据内容作反馈的流程,连同采取这些工具的研究人员,作为一堆巨型有机连接的整体而具有很强的表征世界能力。

问题在于,这些整体彼此区分并不明确,研究人员个体充分的学习就可以使他从一个巨型个体转向另一个巨型个体,但从另一方面来说,地区差异语言差异人际圈子乃至难以理解的行业工艺技术又表现出一定的对外隔绝性。

在很大的意义上,应当发展特殊的工具,使这些巨型个体的边界的区分因素是一类高阶因素,即在这类特殊的工具的交互中建立起来的高阶结构作为的因素,同时弱化一部分传统的低阶的因素。

形象来说,对于软件行业,应该搞全民码农,搞实时编译实时解析,搞无代码编程,搞多模态转换技术,弱化不同媒介不同智力以及时空因素带来的软件行业的边界隔绝。

另一个问题,也是核心问题,能够产生高阶边界的高阶因素的工具应当是如何的?用生物史形象地说,古代细菌们如何走向多细胞生物而不是一滩生物?这是又一个open question,值得一提的是,可能无法证明我们是否能想象到高阶边界所区分的高阶个体的形态会如何。

对这个问题,我的基本观点与前面的回答一致,即用(验证/试错/异常)而非(逻辑/原子谓词/一成不变的公式)构建这个高阶工具,但是对其中的许多细节我个人无从阐述。用新的反传统观点去理解新时代的问题和现象,也许是在实践中发现这些高阶细节所需要的态度。

a50520ff10cba2dd57595359c3b5c889.png

Give a father no options and you leave him no choice.

2c4ca57b5708d1833edff2523d7eb200.png

给一个父亲没有选择,你就让他没有选择。

肖央(Shawn,1980年4月7日-),出生于河北省承德市,毕业于北京电影学院美术系,中国内地男导演、演员、歌手、编剧。

d0c8fb569c4ee7bbf02954526d2b20be.png

“所有的’元’都在系统中变化着,包括电影、戏剧和人生”——过隙
  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值