我们会像原谅人类一样,原谅机器吗?

来源:中国数字科技馆

在人工智能(AI)技术还没火之前,计算机科学家亨利·利伯曼(Henry Lieberman)曾邀请我去麻省理工学院参观他的实验室。亨利痴迷于“AI缺乏常识”这个观点。为此,他与同事凯瑟琳·豪沃希(Catherine Havasi)和罗宾·斯皮尔(Robyn Speer)一直在网络上收集常识性内容,来分析人类对常识的理解和推理过程,期望找到增强AI通识能力的方法。

人们习惯评判好坏

诸如“水(和雨都)是湿的”或“爱(和恨都)是一种感觉”之类的常识,对人类来说显而易见,但机器却难以掌握。这也是人工智能的一个难点,学者们仍在试图理解,为什么理解常识对机器而言如此困难。那天,亨利激动地向我展示了一张图表。他们通过主成分分析(PCA)的方法,将收集的常识性词语集进行多维度的分析和压缩,将最终得出两个最能差异化区分所有词语的维度,设置为了横轴和纵轴,“爱”、“水”和“感觉”之类的词就散布在这张图上。“用PCA来分析常识性的认知,就像是用数学方法试图回答一个古老的哲学问题:人类的知识到底是关于什么的?”我问他这些轴都代表什么含义,卖完关子后,亨利揭晓了答案:最能区分常识性概念的第一个维度,是好与坏。

事后看来,这个规律似乎显而易见。我们每天都会在认知事物和交流沟通中进行无数的好坏评判。我们说天气有“好”和“坏”。我们要寻找更“好”的工作。我们喜欢“好”的音乐,不喝“坏”的酒。然而,人们尚能理性地看待某人袜子上有个洞无伤大雅,跟他的道德无关,但我们却常常在语言中忍不住滥用道德批判。亨利的图表证明了人类语言中普遍存在着好坏评判,这种道德评判也隐含在常识性知识的理解和推理中。

AI犯错,难以原谅?

如今,AI和开发它的人会遭受很多批评。人们愤怒往往是有道理的。AI曾经陷入多起科技丑闻,比如给照片分类时出错,面部识别出错导致无辜的人被捕,或者在评估再次犯罪时具有明显的偏见,以及翻译中存在与性别相关的刻板语句。在大多数情况下,AI界的研究人员都会倾听群众的意见。时至今日,研究人员已经很清楚AI的这些问题,并在积极努力地解决。

随着激烈的争论渐渐过去,值得思考的不仅是AI是“好”还是“坏”,还有批判AI失误时人们展现出来的道德。毕竟,AI伦理也是人类制定的,我们才能做出判断。

在过去的一段时间里,我和我的团队一起做了几十个实验。在这些实验中,我们招募了几千名受试者,要求他们在实验中对人类和AI的行为做出反应。这些实验包括一些场景,如人类或机器使用挖掘机不小心挖开了一个坟墓,或者监视着海啸预警系统,却未能及时向沿海城镇发出警报。这样的比较使我们能够超越单纯由人评判AI的局限,去观察人们在判断机器和人类行为时有什么区别。

这种差异看似微妙,但它迫使我们用一个更现实的参照标准来评判机器行为。过去,我们倾向于用一个完美的标准来衡量AI,而没有对比过如果人类发生同样行为,造成相同的后果后,大家是如何反应的。那么,这些实验告诉了我们什么?

论迹不论心

早期的数据已经清晰地表明,人类对人和机器行为的反应并不相同。例如,在发生意外时,人们对AI的宽容度要低于人类,尤其是当AI造成实质性伤害时。基于几千个数据点,我们可以更深入地研究这些问题,通过建立一个统计模型来解释人们是如何评判人类和机器的。该模型成功预测了人们如何根据造成的伤害以及错误方的“故意程度”打分。

令我们惊讶的是,该模型表明,人们对人类的道德批判并不比对AI更轻,只不过我们使用了不同类型的道德要求来评判二者。下面的这张图总结了这一发现,蓝色和红色平面分别显示了人们如何评判其他人和机器的行为(平均值)。

你可以清楚地看到,平面是不平行的,红色和蓝色平面之间存在偏移。这是因为,在评判机器时,人们似乎更关心事件的结果,即事件带来的伤害程度。这就是为什么红色平面几乎完全沿着伤害维度增长的原因。但是当人们评判他人时,我们在蓝色平面发现了一个曲率。这一次,增长是沿着伤害和意图(故意程度)平面的对角线上升的。这就解释了为什么在发生意外的情况下,人们对机器的评判更加严厉;人们采用结果主义的方法来评判机器,意图无关紧要,但评判人类时则不是这样。

这个简单的模型让我们得出了一个有趣的结论,人们会基于一个经验原则来评判机器与人类的行为,简而言之就是:“人们根据动机评判人类,根据结果评判机器。”

常见的“双标”

但这些实验对我们认识人们的道德直觉有什么启示呢?首先,这些实验告诉我们,人们的道德理念并非固定不变。我们可能会告诉自己,我们是有原则的人,但事实是,我们的判断常会根据判断的人或事物而发生变化(简称双标)。这种摇摆不定的道德标准,并不仅局限于评判人类和机器行为时。

我们在道德上摇摆不定,或并非因为偏袒某一群体那么简单。如果人们只支持人类而不是机器,那么红色和蓝色平面就会平行,但结果却并非如此。这意味着人们不是只喜欢人类而不喜欢机器,只是我们对人和机器的判断不同。相比于用结果主义道德评判机器,我们对人类同胞有着讲道义或更康德式的道德评判标准。

但最重要的一点可能是,我们能通过训练机器的技术来了解人类的道德。在我的研究中,我们通过建立一个简单的,多维度的道德评判模型来了解人类道德的好恶。在亨利等人的研究中,他们通过流行的“降维技术”分析和了解了人类常识中的道德。

在告诉我第一个维度是“好与坏”之后,亨利让我猜第二个轴代表了什么。“易与难,”他说,“简单地说,所有的常识知识都是关于什么是‘好’的或者‘坏’的,以及什么是‘容易’的或‘困难’的。其余的都不重要。”

撰文:塞萨尔·伊达尔戈(César A. Hidalgo)

翻译:魏书豪

审校:孙琳钰

引进来源:科学美国人

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
提供的源码资源涵盖了安卓应用、小程序、Python应用和Java应用等多个领域,每个领域都包含了丰富的实例和项目。这些源码都是基于各自平台的最新技术和标准编写,确保了在对应环境下能够无缝运行。同时,源码中配备了详细的注释和文档,帮助用户快速理解代码结构和实现逻辑。 适用人群: 这些源码资源特别适合大学生群体。无论你是计算机相关专业的学生,还是对其他领域编程感兴趣的学生,这些资源都能为你提供宝贵的学习和实践机。通过学习和运行这些源码,你可以掌握各平台开发的基础知识,提升编程能力和项目实战经验。 使用场景及目标: 在学习阶段,你可以利用这些源码资源进行课程实践、课外项目或毕业设计。通过分析和运行源码,你将深入了解各平台开发的技术细节和最佳实践,逐步培养起自己的项目开发和问题解决能力。此外,在求职或创业过程中,具备跨平台开发能力的大学生将更具竞争力。 其他说明: 为了确保源码资源的可运行性和易用性,特别注意了以下几点:首先,每份源码都提供了详细的运行环境和依赖说明,确保用户能够轻松搭建起开发环境;其次,源码中的注释和文档都非常完善,方便用户快速上手和理解代码;最后,我定期更新这些源码资源,以适应各平台技术的最新发展和市场需求。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值