中文
科研问题
1)研究目标:人工智能研究的目标不是为了创造不受指挥的智能,而是有益的智能。
2)研究经费:对人工智能进行投资的同时,要保证有经费用于研究如何有益地使用人工智能,研究包括计算机科学、经济学、法律、伦理以及社会研究中的棘手问题,比如:
如何使未来的人工智能系统变得高度稳健,即系统会执行我们所想的而不会发生故障或被入侵?
如何通过自动化提升我们的繁荣程度,同时保持人们的资源和意志?
如何升级我们的法制体系使其更公平高效,能够跟得上人工智能的发展速度,并且能控制人工智能带来的风险?
人工智能该与什么样的价值体系保持一致?它该有怎样的法律和伦理地位?
3)科学与政策的联系:在人工智能研究员和政策制定者之间应该要有富有建设性的和健康的交流。
4)科研文化:在人工智能研究员和开发者中应该要培养起一种以合作、信任与透明为基础的文化。
避免不必要的竞争:人工智能开发团队之间应该积极合作,避免有人钻空子导致安全标准被削弱。
伦理和价值
6)安全性:人工智能系统在它们整个的运转周期内应该是安全可靠的,并且能在可应用的和可行的地方被验证。
7)失败透明性:如果一个人工智能系统造成了损害,那么造成损害的原因要能被确定。
8)审判透明性:任何自动系统参与的司法决策都应提供令人满意的解释,可被有能力的人类监管机构审核。
9)负责:高级人工智能系统的设计者和建造者,在道德影响上,是人工智能