把什么样的道德写进算法里?全球最大AI客户五角大楼制定底线原则

640?wx_fmt=png

原创作者:谭婧

美编:陈泓宇


在如今的社会热点讨论中,空口谈论道德与正义总是乏味的,一方面是背后的理论牵扯伦理、道德等哲学范畴问题非常之深奥,还没有用武之地。另一方面是很多人不关注道德层面问题,讨论道德不如讨论如何赚钱更能让人热血沸腾。假如区块链明星李笑来的演讲《韭菜的自我修养》和哈佛桑德尔的《正义:一场思辨之旅》同时售票,哪场的门票会分分钟售罄,答案显而易见。

 

但是,这个问题可以反过来思考,那就是——如何不缺德?

 

人工智能今治水军八十万众,方与人类会猎于吴。所有关于国家、正义与科技的讨论都会愈加深刻:国家与科技的关系是什么?科技在社会上应该如何彰显正义?这些如果要探讨,一定是一个宏大的历史性议题,而且会存在很多争论。所以,不如化繁为简,先达成一个简单的共识:科技一定不能应用在缺德的事情上。

 

有那么一天,当机器能够处理得了世界上所有的计算问题,那么人类肯定不是有更多时间躺在床上玩Iphone2000X手机,有智能给人类无休止的打工,人类工作的首要职责是处理好道德问题.

换句话说,人类每天需要考虑的是:把什么样的道德写进算法里?

 

如果把缺德的算法写进机器大脑里,那么这个世界很快就变缺德的世界,而且人类在比谁更缺德的竞赛里一定会输给智能机器。这样我们得到了,辱骂顾客的服务机器人、推销权健火疗法治疗癌症的销售机器人、带有性别种族歧视的人力资源招聘机器人、自动生成黄色视频的图像算法……当然威力最大的是具有希特勒思维算法的军事机器人。既然道德与伦理如此重要,在未来的智能世界里,人类的热门专业将不是人工智能,而是道德伦理学,博士毕业后年薪百万。


清末时期(1902年),梁启超的《论公德》成为微信3000.0版本的十万加爆款文章。标题为:《速看!收藏!百年前中国学者梁启超演讲实录》。

640?wx_fmt=jpeg


湖畔大学,逻辑思维等热门课程:《智能时代伦理学思维三十讲》……

 

一票难求的科技高峰论坛上的内容简介是:

主题论坛一:

如何阻止茹毛饮血的人工智能毫无伦理原则的裸奔?

(演讲者:麻省理工X实验室首席教授)

主题论坛二:

如何给人工智能穿上伦理学体面文明的外衣?

(演讲者:独角兽创业公司创始人)

主题论坛三:

如何给人工智能量身定制不同场景的伦理套装?

(演讲者:原谷歌亚马逊脸书阿里巴巴腾讯百度首席科学家)

 

伦理学成为当世显学。

 

畅销书作者们决口不提阿法狗花了三千美元的电费打败李世石,就好比没有人再反复谈及宗教承认了日心说是哪一天。

 

但是公元2018年和公元2019年的两件事还会在科技历史中捎带一笔。

 

回顾2018年,美国云计算史上最大订单到底花落谁家,依然疑云密布。

国国防部云战略中(含JEDI计划),国防部首席信息官Dana Deasy在致潜在云计算合作伙伴的一封信中表示。云将是从五角大楼的国防部办公室到单兵作战的基础设施。建设一个统一的云,通过一系列设备提供对数据的访问,以便使用机器学习算法支持决策。

 

640?wx_fmt=png


美国国防部云战略的订单100亿美金,这个全球最大人工智能客户的订单规模足以引起科技巨头震动与狂欢。在争夺订单的过程中,一些竞争者的手段翻云覆雨,吃相十分难看,连第二总部都建在了华盛顿特区附近,其他细节剧情在《2018年的亚马逊,众生虽苦,诸恶莫作》一文中都有所详述。这个全球最大的人工智能客户——美国五角大楼在开标前后充斥着戏剧化的竞标手法。


如果在亚马逊视频平台推出根据事实改编而成电影《百亿订单疑云》,那么剧本一定会写下:公元2019年伊始,剧情发生了反转。

 

故事要从一个已经没有任何希望的,退出竞标者身上讲起,谷歌。这里似乎需要补充上一季剧情介绍:公元2018年,美国巨头谷歌欲竞标五角大楼百亿订单,但是部分谷歌员工据理反对,坚持不允许先进科技用于军事,于是经过集体辞职、众人签名、内外抗议等艰苦的斗争,这家以员工智力为核心竞争力的公司发生了别家公司不会出现的事情,斗争居然扭转了公司高层的态度,答应公司做完手上这点图像算法在无人机上应用的活以后再不接这类订单了。道理很简单,缺德的事情我谷歌员工不干。接着,谷歌从公司层面提出了自己对道德的理解,重新定义了谷歌的价值观一共有七条,包含对社会有益、公正公平、安全、对人负责、保护隐私等重要的道德的标准。史称人工智能道德标准2.0版本,1.0版本原则曾经是家喻户晓的不作恶(“Don’t be evil”)。


640?wx_fmt=png

换句话说,如果想要和谷歌做生意,让谷歌员工为你工作,得满足谷歌的七条道德纪律铁律。如果我们抛开金钱、订单等俗事,仅看这个七条铁律,它能带给我们什么?

 

底线。

表现主角人物性格的重要台词是:“底线从来都不是为了打破的,而是用来捍卫的。”

 

有人回想起2014年,《华为基本法》编写组提出:“怎么管理一个世界级的,商业性的大型高科技企业,中国至今尚无成熟的经验和管理体系,我们只有虚心向西方公司学习,不断实践,不断总结,有所认识,有所发现。”还有人回忆起公元2019年微信公开课上,移动互联网流量巨头张小龙在演讲中提到了4次底线,16次原则。虽然还是处在萌芽阶段,中国企业逐步透露出对科技与道德的朴素的思考。

 

也许有人会不接受反驳地说,道德有什么重要,赚钱最重要。于是,2019年有一个反转的剧情温馨提示:没有道德你就没有资格赚钱。

 

消息来源是2019年1月6日美国国防部的报道。美国国防创新委员会计划制定一套关于在战场上使用人工智能的道德准则。这个道德准则以前是没有的,为什么要在2019年订立?美国国防创新委员会给自己定的目标也很清楚:希望该原则可以缓解美国硅谷潜在合作伙伴对军事应用中如何使用人工智能的担忧。


640?wx_fmt=png

https://www.executivegov.com/2019/01/defense-innovation-board-eyes-ethical-guidelines-for-use-of-ai-in-warfare/


这里需要着重介绍一位人物,前谷歌首席执行官埃里克·施密特,他还有另一个身份——美国国防创新顾问委员会主席。该报道称,他领导的创委会将在2019年6月份的会议上提出该准则的草案,供美国五角大楼领导人斟酌。也就是说,美国国防部即将提出:遵守道德第一(这也是美国国防创新委员会所建议的原则),坚持围绕战争和人权的现行法律规范开展工作,牢记该部门维持和平、威慑战争的远大使命。


640?wx_fmt=jpeg

美国创委会将在未来几个月内收集并审核所有意见,以便拟定人工智能道德原则。创委会下一步的动作是,将于2019年1月23日在哈佛贝尔弗中心举行关于拟议指导方针的公开听取意见会」。

 

野径云俱黑,江船火独明。

剧情会如何发展,亲爱的数据团队将继续为您追踪。(完)

640?wx_fmt=gif

640?wx_fmt=png

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值