人工智能项目的伦理审查

文章探讨了人工智能,特别是自动驾驶技术的伦理审查问题。指出伦理审查涉及伦理、公共政策、计算机科学和法律等多个领域,需要多方面专家共同参与。以自动驾驶为例,展示了在道德困境中的调查结果和法律责任归属的复杂性。文章揭示了当前伦理审查的不足,强调了理解AI决策机制的重要性,并通过Uber自动驾驶事故分析,揭示了实际决策过程中存在的问题,强调了AI伦理审查的挑战和未来需要建立的审查机制。
摘要由CSDN通过智能技术生成

                                    作者    吴国平   北京市隆安律师事务所

 

人工智能的发展,已经由语音识别、图像识别向场景、模式识别以及自我决策甚至自我感知发展,已经有科院团队从事机器拥有自我意识的研究,并且取得了一定的进展,在不远的将来,一切将成为现实。或许未来的我们,再次回首今天我们讨论的问题时,就会发现此时的我们是多么的幼稚。如同刚刚出生的新生儿,我们正在小心翼翼地培育AI,充满期待但是又对它的未来毫无概念。正是因为如此,各个专业的研究人员分别从各自不同的角度展示出了对未来的焦虑。

事实上,AI项目的最隐秘也是最危险的应用领域还在于军事领域,因为任何商业实体用于AI项目的研发投入能力都无法与一个国家的经济实力相比,美国公开的信息显示将很快推出基于人工智能的F35无人战斗机,但是因为军事领域的AI项目是以战争为目的,或者更直接的说是以破坏对方的军事设施、毁灭对方的战斗人员为目的,但是对军事领域AI项目进行伦理审查又涉及战争与伦理的关系,远远超过对商业行为进行审查的范围,因此本文所讨论的范围仅限于商业主体以商业目的开发的人工智能项目。

与传统的伦理问题不同,对AI项目的伦理审查因为涉及众多计算机问题,因而并非单纯的伦理学能够独自解决的问题,因为涉及伦理、公共政策、计算机科学以及法律问题,因此需要程序员、法律专家、政治学家和伦理学家共同参与才能完成。缺少任何一个环节,就可能造成误解和偏差,事实上,我们发现,现有的研究已经显现出这样的问题。

 以自动驾驶的研究为例,有机构在网站上(http://moralmachine.mit.edu/hl/zh)针对自动驾驶的伦理风险发起了问卷测试,如下图所示,测试者分别选取了四种场景,每种自动驾驶车辆的选择都会导致部分人员或者宠物死亡。测试结果显示,接受调查的人员点击提交的结果分别显示了不同的社会价值偏好、年龄偏好、性别偏好、财富偏好和动物偏好。

         

   

 

 

 

研究者通过上述调查发现,在多数和少数人中间,倾向于保护多数人的生命,在保护乘客还是保护行人中间倾向于中立,伦理学研究者通过上述调查试图解释自动驾驶程序设计者在面对上述图例的“两难困境”时可能会通过算法的设定并最终导致有悖伦理的事故,特别是上述算法的设定是通过AI模式实现时,这种伦理性的审查会显得格外必要。在上述伦理学研究者的角度,接受调查问卷的群体之所以接受牺牲少数人换取更多人的程序设计,是因为人们会无意识地将生命的价值进行简单的加法计算,尽管这本身是否合乎伦理就值得探讨,毕竟个体生命的价值是不能通过数学的方法进行衡量的,但是伦理学研究者提出上述调查的意义就在于,它将AI项

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值