23条阿西洛马人工智能原则

编译  | 卞莅

来源  |  FLI阿西洛马会议


人工智能已经为世界各地人们提供了他们每天都在使用的有益工具。人工智能的继续发展,在以下23条原则为指导的前提下,将为人类未来的数十年乃至数百年提供可叹的机会并帮助人类变得更加强大。

 

这些原则是于2017年1月阿西洛马会议上来自全球各地的顶级行业领袖讨论而制定的。

会议详情请参见:

https://futureoflife.org/2017/01/17/principled-ai-discussion-asilomar/ 

会议视频请参见:

https://www.youtube.com/channel/UC-rCCy3FQ-GItDimSR9lhzw

 

目前为止,已经有多达1273名人工智能 /机器人研究人员和其他领域2541人签署支持这些原则。总共参与签署这23条原则的3814位人员名单在这里:https://futureoflife.org/principles-signatories/, 其中包括DeepMind的创始人和CEODemis Hassabis, 剑桥大学的理论物理学家Stephen Hawking, 深度学习之父Yan LeCun和Yoshua Bengio, 特斯拉和SpaceX的CEO Elon Musk, 谷歌研发总监Peter Norvig, 谷歌大脑leader Jeff Dean, 东田研究院CEO Gill Pratt, 麻省理工学院天文物理教授Max Tegmark, 斯坦福教授及AAAI前任主席NilsJ.Nilsson,Y-combinator主席Sam Altman, 美国公民自由联盟执行董事Anthony Romero,邓普顿世界慈善基金会主席 Andrew Serazin, 等~


640?wx_fmt=jpeg

如果您想参与这些原则和议题的讨论,请在这里加入: https://futureoflife.org/principles-discussion/ 如果您想表达您对这23条原则的支持,请到这里登记:https://futureoflife.org/ai-principles/


以下是23条阿西洛马人工智能原则:


研究问题

1)  研究目标:人工智能研究的目标应该建立有益的智能,而不是无向的智能。

2)  研究资金: 投资人工智能的同时,应资助那些确保其创造有益价值的研究,包括计算机,经济学,法律,伦理学和社会学的棘手问题,诸如:

  • 我们如何使得未来人工智能系统高度健全,从而不会发生故障和被入侵?

  • 在维持人们的资源和目标的同时,如何通过自动化来提高我们的繁荣?

  •  随着人工智能的发展,我们如何更公平和有效地修正法律系统以及管理人工智能相关的风险?

  • 人工智能应该遵守哪些价值观?人工智能的法律和伦理状态应当是什么?

3)  科学政策链接:人工智能研究人员和政策制定者之间,应形成积极、有建设性的沟通。

4)  研究文化: 研究人员和人工智能开发人员应该被培养一种互相合作、互相信任和互相透明的文化。

5)  规避一蹴而就: 开发人工智能系统的团队应积极相互合作,以避免在达成安全标准上偷工减料。


道德标准和价值观念

6) 安全性:人工智能系统应当是安全的,且是可适用的和可实行的。

7) 故障透明:如果一个人工智能系统引起损害,应该有办法查明原因。

8) 审判透明:在司法裁决中,但凡涉及自主研制系统,都应提供一个有说服力的解释,并由一个有能力胜任的人员进行审计。

9) 职责:高级人工智能系统的设计者和建设者是系统利用,滥用和行动的权益方,他们有责任和机会塑造这些道德含义。

10) 价值观一致:应该设计高度自主的人工智能系统,以确保其目标和行为在整个运行过程中与人类价值观相一致。

11) 人类价值观: AI系统的设计和运作应符合人类尊严,权利,自由和文化多样性的理念。

12) 个人隐私:既然人工智能系统能分析和利用数据,人们应该有权利存取,管理和控制他们产生的数据。

13) 自由与隐私:人工智能在个人数据的应用不能无理缩短人们的实际或感知的自由。

14) 共享利益:人工智能技术应该尽可能地使更多人受益和授权。

15) 共享繁荣:人工智能创造的经济繁荣应该广泛的共享,造福全人类。

16) 人类控制:人类应该选择如何以及是否代表人工智能做决策,用来实现人为目标。

17) 非颠覆:通过控制高级人工智能系统所实现的权力,应尊重和改善健康社会所基于的社会和公民进程,而不是颠覆它。

18) 人工智能军备竞赛:应该避免一个使用致命自主武器的军备竞赛。


长期问题

19) 性能警示:因为没有达成共识,我们应该强烈避免关于未来人工智能性能的假设上限。

20) 重要性:高级人工智能可以代表地球上生命历史的深奥变化,应该计划和管理相应的护理和资源。

21) 风险:对于人工智能造成的风险,尤其是那些灾难性的和存在价值性的风险,必须付出与其所造成的影响相称的努力,以用于进行规划和缓解风险。

22) 递归自我完善:那些会递归地自我改进和自我复制的AI系统若能迅速增加质量或数量, 必须服从严格的安全控制措施。

23) 共同好处:超级智能应当只为广泛分享道德理想而发展,是为了全人类而不是为了一个国家或者一个组织的利益。

source link:

https://futureoflife.org/ai-principles/




  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值