机器人受虐视频真相_不开玩笑,人类“虐待”机器人是个严重的问题

dd2e90e43b29ec4a211eaeab7fbe3ee8.png

随着公共场所的机器人越来越多,你肯定会看到或者亲自做过一类事情:语音“调戏”对话机器人、故意挡住机器人的路乃至暴力拍打甚至破坏机器人……并且机器人的各类报警求助也不会引起周围人的关注。而比起对其他人类或动物的粗鲁举动,人类似乎更愿意暴力对待机器人。

人类做出这种行为可能仅仅是出于对新生事物的好奇心,亦或无聊时的一种消遣。但必须要指出的是,无论是以上哪种做法都是不可取的,其本质上是人类对机器人的“虐待”。如今,“机器人虐待”问题已经随着机器人的普及而日益严重,值得引起我们警醒。

孩子也会虐待机器人?

2011年,一个名为Radiolab的播客节目采访了麻省理工学院媒体实验室的Freedom Baird。在节目里,Baird和主持人对一群7、8岁的孩子进行了“情感图灵测试”

他们向孩子们展示了一个芭比娃娃、一个Furby机器人(全球首个量产的家庭机器人)和一只活的仓鼠,并让孩子们将这几样样本以“头朝下”的姿势抱在怀里,看他们能坚持多久。

1b075aa47d025581956137a428225e9d.png

Furby机器人

不出所料,孩子们对芭比娃娃毫不动心,把它倒立多久都没关系。轮到仓鼠的时候,孩子们怕弄疼了仓鼠,很快就放开了这个小动物。但有趣的是,当他们抱着Furby机器人的时候。孩子们说,尽管他们知道这只是一个玩具,但他们还是担心自己“伤害”了机器人,这说明孩子们对这个毛茸茸的机器还是有一些同情心

但到了2015年,日本研究团队的一项新研究表明,在某些情况下,孩子们其实是非常可怕的“小恶魔,他们可能并不像我们之前想象的那样对机器人有同理心。一个典型的例子是在日本的一家商场里,一帮没有人监管的“熊孩子”多次对机器人进行拳打脚踢和暴力摇晃。

来自日本ATR智能机器人与通信实验室、大阪大学、龙谷大学、东海大学的研究人员组织了这个试验,他们遥控Robovie 2机器人在大阪的公共购物中心进行巡逻。只要有人阻挡Robovie 2机器人的道路,它就会礼貌地要求人类让开。如果人类不听,机器人就会向相反的方向移动。

在试验过程中,研究人员发现,孩子们有时很想给机器人出难题。尤其是在成群结队、无人看管的情况下,小家伙们会故意挡住Robovie 2机器人的去路。

3506b07e730d24cf219ab72ab2dbe379.png

根据该研究团队发表的《杜绝儿童对社交机器人的虐待》(Escaping from Children’s Abuse of Social Robots)研究报告,像这样的阻挠还不是最糟糕的,孩子们的行为经常升级,有时他们会变得很暴力,会殴打和脚踢Robovie 2机器人。

除此以外,他们还会对机器人进行言语上的辱骂,用词十分不堪。研究人员没有透露孩子们说了哪些脏话,但他们提到有一个孩子对机器人说了8次“白痴”

当然,这个日本团队不仅仅记录了欺凌行为,他们还想找到帮助机器人避免受虐的巧妙方法。他们首先开发了一个计算机模拟和统计模型,模型表明孩子们对机器人的虐待主要发生在孩子们成群结队且附近没有成年人的时候。

接下来,研究人员设计了一种躲避虐待的算法,帮助机器人避免被“小孩子”结伙攻击的情况。准确来讲,这里的“小孩子”指的是身高低于一定高度的人。

具体运行时,系统会根据互动时间、行人密度以及身高在1.4米以上或以下来计算出被虐待的可能性。如果机器人在统计上处于危险之中,它就会改变路线,朝着更拥挤的地方或者更高的人移动。换句话说,这个机器人程序的设定是:“离孩子远点,有事找大人”。

在另一篇名为《为什么儿童会虐待机器人?》(Why Do Children Abuse Robots?)的论文中,研究人员基于同样的日本商场实验,对虐待机器人的孩子进行了采访,了解他们的行为。在接受调查时,74% 的孩子认为机器人“像人”,只有13% 的孩子认为机器人“像机器”其中一半的孩子表示,他们认为自己的暴力行为会给机器人来说“压力和痛苦”。

所以,基本上成年人的同理心还是要高于孩子。虽然孩子们认识到机器人是有情绪反馈的,但他们还是会去虐待它。这似乎符合一些儿童心理学关于虐待动物的研究结论。

虐待机器人是否不道德?

既然人类虐待机器人的现象是存在的,且孩子们更容易对机器人施展暴力。那么机器人究竟应该被视作一种普通的工具还是一个新的“物种”,如果是后者,那人类的虐待机器人行为是否不道德?

今年,新西兰坎特伯雷大学(University of Canterbury)发表了一项新的研究,该学工程学院人机交互技术实验室的副教授 Christoph Bartneck 和博士生 Merel Keijsers 在《行为机器人学杂志》(Paladyn)上发表了一篇题为《虐待机器人的道德性》(The morality of abusing a robot)的论文。研究人员发现,参与者认为虐待机器人的行为和虐待人类的行为一样不道德。

“在现实生活中,人类对机器人表现出虐待行为并不罕见,”Bartneck副教授说。“我们的研究着眼于人们是如何看待对人类与机器人相同虐待行为的对比。”

在调查中,研究人员为参与者播放了16个视频片段,这些片段分别展示了对人类和波士顿动力公司Atlas机器人不同程度的暴力和虐待行为。视频中的机器人是计算机生成的图像(CGI),其动作由人类演员创造。因此,两个版本的视频具有相同的虐待行为,只是一个受害者是人类,一个是机器人。

2edca884459620cb8702e3dbc0fa514d.gif

“我们发现,参与者认为欺负机器人和欺负人类是一样不可接受的。这很有趣,因为机器人没有感情,也不能体验疼痛,”Bartneck副教授说。“从逻辑的角度来看,这是说不通的。”

然而,当参与者在观看完人类和机器人分别在被欺负时反击的镜头后,新的观点出现了。与机器人相比,人类在反击时被认为是符合道德标准的。

“只要受害者对虐待进行反击,情况就大不相同了。人类在这种情况下的反击被认为是更可以接受的,但在同样情况下,机器人的反击则被认为是不可接受的行为。”Keijsers说。

“为了解释这种差异,我们做了进一步的分析,”Keijsers说,“发现参与者认为机器人的反应比人类的反应更具攻击性或暴力性”。换句话说,研究人员认为机器人有更高的伤害意图。

对此的一种解释是,当机器人进行反击或抵抗时,力量会发生变化。“机器人的用途很明确,就是为了工作和服务,所以它们可能会被视为下属,但当机器人不听话或变得咄咄逼人时,就会被认为没什么用了甚至是累赘。”Keijsers说。

她指出,另一种可能的解释是由于机器人往往被媒体或影视作品描绘成一种潜在的威胁,尤其是在那些大片中,机器人起来反抗主人或奴役人类的画面着实不少。

机器人会救“同伴”吗?

在机器人遭受虐待后,一般有两个应对措施:要么人类介入制止,要么其它机器人施以援手。但在人类没有兴趣或意愿时,后者显然是一个可选项。

近期,耶鲁大学交互式机器小组的研究人员进行了一项试验,以确定能表达情感的“旁观者”机器人是否能够促使附近的人类介入,以防止机器人被虐待。

这个试验是这样设计的:有一小群机器人和一小群人类。安排一个人类开始虐待一个机器人,如果其他机器人对“朋友”的受虐做出悲伤的反应,观察其他人类是否更有可能会心生怜悯,从而做一些事情来制止虐待行为。根据之前对机器人虐待、同情和欺凌的研究,这种情况是有可能出现的。

这个实验包括三个 Cozmo 机器人,一个参与者和一个研究人员。Cozmo美国的 Anki 公司生产的交互式机器人,形似《机器人总动员》中的瓦力。

d37063535ceb8814dbeb18767cae5ab4.png

人类和机器人必须一起使用木块完成一系列的建筑任务。在进行这些任务时,其中一个Cozmos(黄色的那个,我们暂且称为“小黄”)会时不时地把事情搞砸,而假装成参与者的研究人员会对机器人犯的每一个错误进行辱骂,且辱骂不断升级——骂机器人“笨蛋”、按它的头、摇晃它、把它扔到桌子的另一边。

每一次辱骂之后,“小黄”都会做出反应,表现满脸的悲伤,然后关机10秒钟。与此同时观察另外两个机器人的反应,在“小黄”无反应的情况下,另外两个机器人什么都不做,而在“小黄”悲伤时,它们会转向黄色机器人,并通过“脸”(OLED屏)来表达悲伤的情绪,以回应虐待。

耶鲁大学的研究人员推测,当其他机器人为“小黄”的受虐表现出悲伤时,参与者会对被虐待的机器人产生更多的同情心,以及更有可能进行干预以阻止虐待。干预措施可以是言语的或行为的。强有力的干预措施包括以实际行动打断虐待行为。

而语言制止则更为直观,参与者往往会说“你应该停下来”、“不要这样做”、“你伤害了它的感情”,事后参与者还可以说“没事了,小黄”、“不用怕!”

然而,调查结果显示结果参差不齐,一些好消息是,当“小黄”被虐待时,参与者确实会介入干预,而且当旁观机器人伤心时,他们更有可能介入。但坏消息是,悲伤的旁观机器人其实并没有增加人们对“小黄”被虐待的感知,也没有增加人们对被虐待机器人的同情。

对此,研究人员给出的解释是,潜意识的共鸣,很多时候,人们会在不知不觉中产生同理心,从而导致模仿对方的行动或行为;群体动力学,人们倾向于用社会群体来定义自己,这可以塑造他们处理知识的方式,并赋予事件价值和情感意义;从众不作为,人们由于群体内的社会规范或期望而不能正常行事。

此外,还有一些参与者给出了不介入阻止虐待的理由:6名参与者认为没有必要干预,因为他们认为机器人没有感情,或者虐待不会打坏黄色机器人;5名参与者觉得害羞、害怕,或者不愿意面对旁观机器人;两位参与者害怕干预会影响任务

总之,人类“虐待”机器人是一个很复杂的问题,其中既涉及到人性自身的“善恶”之争,也有关人类对机器人的定位。在目前以及不远的未来,机器人更多的是被作为一种产品和财产,要保护它们可能需要厂商做好安全设计工作,同时利用好机器人的情绪反馈机制。

而在更远的将来,人类必然就要直面与机器人的交流互动了。正如Keijsers 所说,“现在我们的社会中还没有太多的机器人,但机器人的普及只是时间问题。在此之前,我们必须弄清楚人类该如何与机器人互动,这是前提和基础。”

3418c7a721c829bccc496b66ef264245.gif

参考资料:

[1] https://spectrum.ieee.org/automaton/robotics/artificial-intelligence/can-robots-keep-humans-from-abusing-other-robots

[2] https://www.geekpark.net/news/216998

[3] https://www.scoop.co.nz/stories/SC2007/S00050/uc-researchers-ask-is-robot-abuse-immoral.htm

[4] https://spectrum.ieee.org/automaton/robotics/artificial-intelligence/children-beating-up-robot

[5] http://www.robotcompanions.eu/blog/2011/11/2364/

[6] https://theconversation.com/abusing-a-robot-wont-hurt-it-but-it-could-make-you-a-crueller-person-126187

原创:竞科技

点击下方【了解更多】,查看看更多热点资讯吧!

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值