从人工智能到人机智能

本文探讨了人机混合智能的本质,强调决定论与自由意志的结合。指出计算与算计的区别,以及算计在人机智能中的重要性。同时,文章提及了人机混合智能在认知决策和非认知决策中的差异,并引用哈耶克的观点讨论了感觉秩序的不可约化和可约化。此外,文章提到了人机融合智能的不足,并提出人机环境系统智能作为可能的解决方案。最后,文章讨论了如何区分态、势、感、知的相似度,并列举了多种距离度量方法,指出其在心理学中的应用和限制。
摘要由CSDN通过智能技术生成

控制论出现之前就有机器了,但没有那么精确,智能论之前的控制论涉及客观事实的数据反馈,比如高射炮打飞机,然而,智能论里的反馈则主要是价值性的反馈,能够使用事实与价值混合预、中、后过程性的反馈即为人类计算计的智能过程。

事实中存在着决定论,价值里包含有自由意志。简单地说,计算有决定论,算计含自由意志。人机混合智能的本质就是决定论与自由意志的结合。

“比特”既然可以算公共事实性信息值多少,“古德”就应该可以算个人价值性有效性大小。针对不同的情境,个性化的价值有可能与共性化的事实进行过程或结果上的等价换算,这将会涉及计算计模型中算计的算法问题。

东方智能常常强调一个事物既是又不是以保留决策的弹性和空间(对同样的事物可以有不同的看法,即从确定的规则条例中看到实践中的不确定性,或从不确定性实践中看到确定性的可能性。),而不是像西方那种“是或不是”的决定论,把最后的决策空间余地给消除了。

“1+1=2”在数理域、物理域常常是正确的,但对于认知域、信息域和博弈域而言,“1+1/=2”确是常态,如两条信息在一起的效用就可以大于或小于各自每一条的效用。

e55825ebf5ee95623bbaee332a7a6be5.jpeg

算计是运用计算之前或之后的行为。

仅从计算的观点出发,肯定不足以建立完善的心智科学。

算计是非自发的秩序,是人事先设计而产生的,由人类设计而非人类行为产生的秩序。是多算胜,少算不胜,是知彼知己的“知”。

算计是没有数和图的计算,即没有数的计算。

哈耶克说:“我们必须推翻如下观点,即相信存在一种能够准确地描述世界的客观认识。”

一般而言,认知决策是客观主观化、自下而上的计算过程,非认知决策则为主观客观化、自上而下的算计过程。

哈耶克认为:“感觉秩序”是不可约化的,它的元素无法被分解成线性的、A 导致 B 这样的因果术语,也无法对其重新组合并对整体做出解释。但是在算计的作用下,“感觉秩序”是可约化的,它的元素可以被分解成线性的、A 导致 B 这样的因果术语,也可以对其重新组合并对整体做出解释。

世界的秩序产生于数以百万计的“自发”和“设计”的感觉秩序的复杂互动。这种秩序以渐进、弥散、聚合、转化、调整的方式演化,它是众多人的动机/行为、机器装置、变化环境互动的意外结果,而非单纯人类设计的结果。人机混合的学习、选择、判断难在混合上,不同事物之间的混合需要内外力的共同作用,而机的“内力”不够。

人机融合智能同人工智能一样依然存在着许多缺点和不足,进而很难实现正确的判断和决策,如何克服这些薄弱环节达到更快更高更强更协同的智能效果呢?人机环境系统智能可能是一种较好的途径。

望静候《人机环境系统智能—超越人机融合》小书的出版~

7fa55063573c707d88ba495fb095d661.jpeg

如何区分态、势、感、知的相似度?

在做分类时常常需要估算不同样本之间的相似性度量(Similarity Measurement),这时通常采用的方法就是计算样本间的“距离”(Distance)。采用什么样的方法计算距离是很讲究,甚至关系到分类的正确与否。

常用的相似性度量包括:

1. 欧氏距离

2. 曼哈顿距离

3. 切比雪夫距离

4. 闵可夫斯基距离

5. 标准化欧氏距离

6. 马氏距离

7. 夹角余弦

8. 汉明距离

9. 杰卡德距离 & 杰卡德相似系数

10. 相关系数 & 相关距离

11. 信息熵

这些方法能否用来区分态、势、感、知的相似度?

如果不能,则应该如何区分态、势、感、知的相似度?

物理的相似性与心理的相似性一样吗?

心理距离不是一种距离,而是一组距离的定义。

心理相关系数是衡量心理随机变量X与Y相关程度的一种方法,相关系数的取值范围是[-1,1]。相关系数的绝对值越大,则表明X与Y相关度越高。当X与Y线性相关时,相关系数取值为1(正线性相关)或-1(负线性相关)。

心理信息熵并不属于一种相似性度量。

心理信息熵是衡量分布的混乱程度或分散程度的一种度量。分布越分散(或者说分布越平均),信息熵就越大。分布越有序(或者说分布越集中),信息熵就越小。

       计算给定的样本集X的信息熵的公式:

bf3d3b2e2e5c269e90e3d02d73b4a0cd.png

参数的含义:

n:样本集X的分类数

pi:X中第i类元素出现的概率

信息熵越大表明样本集S分类越分散,信息熵越小则表明样本集X分类越集中。。当S中n个分类出现的概率一样大时(都是1/n),信息熵取最大值log2(n)。当X只有一个分类时,信息熵取最小值0。

以上11种方法能否用来区分态、势、感、知的相似度?

如若不能,应该如何区分态、势、感、知的相似度?

如何用计算计实现相似性的接近?

人造(别人造的势和自己造的势)的相似度是如何干扰态势感知的?

537f7c56a1ce00caeba2be28e8baaa32.jpeg

—————————————————

Gary Marcus又来「整顿」AI圈:LeCun不可信,Nature审稿人没用脑子

机器之心   2022-10-17 12:54   发表于北京

选自garymarcus.substack

作者:Gary Marcus

机器之心编译

编辑:蛋酱、张倩

Gary Marcus 和 Yann LeCun 等人的一系列辩论能否让「AI 的未来何去何从」这一命题越辩越明?

a1fc91cd322df8c8186538ea1403e360.png

这个周末刚过,我们再次看到了 Gary Marcus 对 AI 圈的最新「整顿」成果。

10b44cd946cda1d88650608a73649057.png

「四天内关于人工智能和机器学习的三个令人费解的说法、顶级期刊的统计错误,以及 Yann LeCun 的一些说法,你都不应该相信。」

以下是 Gary Marcus 的原文内容:

一些事情即将发生。当《纽约时报》说一场革命即将到来,但事实上并没有发生时,我从不感到惊讶。这种情况已经持续了很长一段时间(实际上是几十年)。

比如,想想 2011 年时 John Markoff 是如何展望 IBM Watson 的。

「对 I.B.M. 来说,这场较量不仅是一场广为人知的宣传和 100 万美元的奖励,还证明了该公司已经朝着一个智能机器能够理解并对人类做出反应,甚至可能不可避免地取代人类的世界迈出了一大步。」

但 11 年之后的今天,John Markoff 所描述的愿景并没有发生。人们仍然缺乏对人工智能的理解,真正被 AI 取代的工作也是极少数。我所知道的每一辆卡车仍然在由人类驾驶(除了一些在受限场景下进行测试的卡车),目前还没有放射科医生被取代。Watson 本身近期也在被拆分出售。

《纽约时报》在 1958 年首次表示,神经网络即将解决人工智能问题。当然,预测 AI 并不是《纽约时报》的强项。

73cb277f48bc3028051d46513c6cfd41.png

但在过去的几天里,我看到一大堆严肃的研究人员也在提出类似的过度兴奋的主张,他们本应该更了解这个领域的情况。

第一个例子来自斯坦福大学经济学家 Erik Brynjolfsson,是三个例子中最不令人反感的一个,但仍有些过头。

d8cec3e5813d468de473232315b895bd.png

我看过很多种不同类型的狭义智能,一些智能在它们特定的领域能超越人类。人类智能(可能)比目前所有其他智能都更加广泛,但仍然只是智能空间中一个非常狭窄的部分。

Brynjolfsson 认为,人类智能是所有可能的智能空间中非常狭窄的一部分(这是乔姆斯基在我出生前就针对人类语言提出的观点),这个看法完全正确。毫无疑问,比我们更聪明的智能是有可能存在的,而且还可能实现。

但是,且慢——他帖子里的 「probably」是怎么回事呢?他甚至把它放到了括号里。

任何一个正常的 5 岁孩子都可以用他们几年前或多或少从零学到的母语进行对话、爬上一个不熟悉的攀爬架、看懂一部新卡通的情节或口头掌握一个新卡片游戏的规则,而不需要进行成千上万次的尝试。人类孩童在不断地学习新事物,而且通常是从少量的数据中学习。在人工智能的世界里,没有任何东西可以与之相比。

他在帖子里加一个「probably」,就好像我们认为,在人工智能的世界里,人类通用智能存在一个有潜力的竞争对手。事实上并没有。这就好像我说「塞雷娜 · 威廉姆斯可能(could probably)会打败我」一样。

与此同时,Yann LeCun 发布了一系列令人费解的推文,声称他发明的 ConvNet(或其他什么东西)可以解决几乎所有问题,这不是真的,而且从表面上看与他自己几周前告诉 ZDNet 的相矛盾。但是等等,还有更糟的。LeCun 继续写了下面的话,这真的让我摸不着头脑:

eacf12eb4dd35b3c872b4124285b1872.png

无论你是想增强人力还是取代人力,在 AI 领域取得进展所要解决的问题都是「完全」相同的。

我不同意他的看法。增强人的能力要简单得多,因为你不需要把整个问题都解决掉。计算器可以增强会计的能力,但它不知道哪些钱是可扣除的,也不知道税法中哪里可能存在漏洞。我们知道如何建造能做数学运算的机器(增强),但不知道如何制造能够阅读税法代码的机器(取代)。

我们再来看看放射学:

b7260af6059d3773237e8e7b380b95cc.png

放射科医师的工作不仅包括阅读图像(卷积网络适用),而且(在某些情况下)包括推理患者的病史以及阅读非结构化文本,这两个问题卷积网络就不太适用了。

医疗 AI 领域以压倒性多数和一致的方式支持我的论点:

6d094cf0e889627c094b205b81767342.png

说得对!我们会阅读临床记录、查看 lab value、与转诊医生交流,然后在这些附加信息的背景下查看成像结果。

680bae2e202896486fc007bf1fde4527.png

经过一番思考,我们认为 LeCun 的说法不正确。我们在医学上建立辅助系统的原因是我们还无法解决诊断任务。我们只擅长非常简单的高通量任务,而这些任务对放射科医生来说真的很容易。

e2c43ea27d098f83c02618bc6c7dff40.png

我的收件箱里全都是争论「AI 是否可以取代放射科医生?还是只能看扫描结果」的内容,然而 AI 甚至还不能很好地看懂影像……

31a755faed49a745a735c255c0788fa5.png

我已经在医学成像中用了五年的深度学习。我自己的公开预测是:有朝一日,人工智能将完全取代放射科医生。但是在此之前,我们将先实现移民火星的梦想。

人工智能可以解决放射学某些方面的问题,但这并不意味着它可以解决所有方面的任何问题。

正如 Una Health 联合创始人兼首席医疗官 Matthew Fenech 所说:「主张在一段不长的时间里取代放射科医生是从根本上误解了他们的角色。」

22d93f99772b3f28530c6d6b1f07141a.png

但这些只是即兴的推文。也许我们可以原谅他们仓促的表达。但更令我惊讶的是,《自然》杂志的一篇关于语言神经科学的文章中出现了大量有利于深度学习的统计错误。

这篇文章(《Deep language algorithms predict semantic comprehension from brain activity(深度语言算法通过大脑活动预测语义理解)》)由一些 MetaAI 的研究人员撰写:

1b32272974d529442e4a4cdedf825f69.png

表面上看,这个结果对于深度学习爱好者来说是个好消息,揭示了深度学习和人脑之间的相关性。该研究的主要作者在推特上的同一系列帖子中声称,GPT-2 的「内部工作」与人类大脑之间存在「直接联系」:

567dd20db7615e4b986cd109188c428e.png

但细节很重要;我们看到的只是一种相关性,观察到的相关性是良好的,但不是决定性的,R = 0.50。

这足够发表文章了,但也意味着还有很多未知的地方。当两个变量像这般相关时,并不意味着 A 导致 B(反之亦然)。这甚至不意味着他们步调一致。它类似于身高和体重之间的相关性的大小:如果我只知道你的身高,而对你一无所知,我可以对你的体重做出一个稍微有根据的猜测——可能很接近,但也可能相去甚远,这些都是无法保证的。

这篇论文本身解决了这个问题,但是当它这样做时,它犯了一个大错,再次将太多结果归因于深度学习。他们是这样说的:(了解自己统计数据的人可能会立即发现错误)。

6e2769b897f5dc1920719d9c4d474419.png

正如 Stats 101 告诉我们的,所解释的变化量不是 R,而是 R 的平方。因此,如果你有 R = 0.5 的相关性,实际上「解释」的(实际上只是「预测」)只有 25 % 的方差——这意味着四分之三(而不是一半)的可变性仍未得到解释。这是一个巨大的差异。(在一则私信中,我向作者 King 指出了错误,他和我意见一致,并承诺他会联系期刊进行更正。)

预测仅 25% 的方差意味着允许进行「推测」,但这肯定不意味着你已经确定了答案。最后,我们真正拥有的证据只是表明,对 GPT 很重要的东西对大脑也很重要(例如频率和复杂性)。但我们还不能说,两个弱相关的东西实际上在以相同的方式运作。

现在事情就是这样。但《自然》杂志的同行评审并没有注意到这个点,这让我感到震惊。它告诉我的是人们喜欢这个故事,却并没有仔细阅读。(仔细阅读是同行评审员的首要工作。)

当审稿人喜欢这个故事但没有批判性地阅读时,这表明他们是用心投票,而不是用大脑投票。

原文链接:https://garymarcus.substack.com/p/too-much-benefit-of-the-doubt?utm_source=twitter&sd=pf

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值