人工智能伦理无法回避的5个问题,生物进化是否有方向是关键

本文探讨了人工智能伦理制定中的五个关键问题,指出生物进化是否有方向的共识是制定AI伦理的基础。文章通过泰坦尼克号、电影《2012》等案例,展示了伦理决策的挑战,并提出智能系统的等级划分。作者强调,AI尚无法被视为与人类同权的生命体,其进化动力源于人类,而生物进化的方向和目标对于AI伦理的设定至关重要。
摘要由CSDN通过智能技术生成

本文是根据我在4月13日,中国科学院科技战略咨询研究院与腾讯研究院在北京联合举办了“2017人工智能:技术、伦理与法律研讨会”上的发言内容整理形成。演讲的题目是“人工智能伦理规则制定与生物进化方向的关系”。

本文详细阐述了制定人工智能伦理需要回答的5个问题,提出“生物进化是否有方向“能否达成共识,将是未来制定人工智能(AI)伦理能否形成规范的关键。根据“2017人工智能:技术、伦理与法律研讨会”的演讲整理的研究报告如下:


通俗的说:伦理就是指“人与人以及人与自然的关系和处理这些关系的规则”,人类数千年的文明史,至今我们也没有一个统一的、标准的、明确的伦理体系,仅有一些大部分人承认的大体的原则。对于人工智能带来的伦理冲击,因为伦理问题的不完善和争议而变得更为突出。


泰坦尼克号(RMS Titanic,又称铁达尼号)是一艘奥林匹克级邮轮,于1912年4月处女航时撞上冰山后沉没。泰坦尼克号海难为和平时期死伤人数最惨重的海难之一。船上1500多人丧生。在逃生的过程中究竟哪个群体获得生命优先权。成为逃难过程中面临的重要的问题,美国新泽西州州立大学教授、著名社会学家戴维·波普诺在他的《社会学》一书中这样写道:“……不幸的是救生船不够。尽管很多人(超过1500人)遇难,但乘客注意遵守‘优先救助妇女儿童’的社会规范”,使得英国公众和政府面对这一巨大灾难,“可以找到一些安慰”——统计数据表明,“乘客中69%的妇女和儿童活了下来,而男乘客只有17%得以生还”。


《2012》是一部关于全球毁灭的灾难电影,于2009年11月13日在美国上映。电影讲述了主人公以及世界各国人民挣扎求生的经历,灾难面前,尽现人间百态。电影中当空军一号只能容纳一人登机时,美总统让物理科学家安全离开,自己留下时说到“一个科学家比几十位官员更重要“


火车正在急速行驶,不能急停。而正前方有一分叉路轨, 左边仍在使用, 右边已经停用(但是火车行驶上去.还是安全的) 。有5个小朋友在仍在使用的铁轨上玩,一个小朋友在停用的铁轨上玩。这时火车来了。按照火车原定路线,会驶向左边,撞上5个小朋友。如果驶向右边,只会撞上1个小朋友。假如你是扳道工,你会不会把火车扳向右边?


波士顿动力机器人在搬动箱子时,受到测试科学家的攻击,导致站立不稳摔倒,互联网的视频观众提出抗议,认为侵犯了机器人的权利。

“机器人不得伤害人类;机器人必须服从人类的命令,除非这条命令与第一条原则相矛盾;机器人必须保护自己,除非这种保护与以上两条原则相矛盾。”以上是著名科幻作家、“机器人学之父”阿西莫夫提出的“机器人三原则”,被后世无数的科幻小说及影视作品引用,被人们奉为经典。

在阿西莫夫眼中,机器人只是冷冰冰的机器,是为人类服务的工具。既然是工具,自然也就不需要什么权利,所以当“保护自己”与“不得伤害人类”、“必须服从人类命令”相矛盾的时候,机器人最基本的生存权都可以被毫不犹豫地牺牲。

但是,近年来,在机器人技术快速发展以及与人类关系日益密切的时代背景中,关于机器人权利问题的讨论受到越来越多的关注,学者和公众纷纷参与其中。比如,2006年,英国政府发表一份报告预言未来的一场重大转变,称机器人将来会自我复制、自我提高,甚至会要求权利。受这份报告影响,2008年1月,英国皇家医学会(Royal Society of Medicine)专门召开研讨会,讨论“机器人与权利”的问题。(11)又如,2011年,《工程与技术杂志》(Engineering and Technology Magazine)就机器人是否应该拥有权利展开讨论。


制定AI伦理无法回避的5个问题


1.应该由谁来制定AI伦理


2.站在谁的立场制定AI伦理


3.按照什么原则制定AI伦理


4.AI伦理是供谁来参考使用


5.AI能不能被看做与人类同权的生命体

评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值