今天AI领域都在谈论一件事。DeepMind表示,很自豪成为Asilomar人工智能原则的签署者,这是一个AI和伦理方面的重大进步。而硅谷钢铁侠伊隆-马斯克指出,顶级的AI研究人员在人工智能发展方面达成一致:开发对人类有益的人工智能。
这个原则在今年的Asilomar大会上达成。细节如下:
研究问题
1)研究目标
AI研究的目标,不是创造不受指导的智能,而是创造有益人类的智能。
2)研究资助
对人工智能的投资,应确保相关研发是有益人类的,包括计算机科学,经济学,法律,伦理和社会研究中的棘手问题,例如:
我有几张阿里云幸运券分享给你,用券购买或者升级阿里云相应产品会有特惠惊喜哦!把想要买的产品的幸运券都领走吧!快下手,马上就要抢光了。
如何使未来的AI系统足够强大,不会发生故障或被黑客入侵?
如何通过自动化实现社会繁荣,同时维护人类的资源和目的?
如何推动法律制度更公平、更有效率,跟上AI的步伐,以及管理与AI相关的风险?
AI应该与什么样的价值观相一致,它应该具有什么法律和伦理地位?
3)科学政策链接
AI研究人员和决策者之间应该建设性和健康的交流。
4)研究文化
应该在AI的研究人员和开发人员中培养合作,信任和透明的文化。
5)竞争避免
开发AI系统的团队应积极合作,以避免削减安全标准。
伦理和价值观
6)安全
AI系统在其整个使用寿命期内应安全可靠,并在可行的情况下可验证。
7)故障透明度
如果一个AI系统造成损害,应该能够确定原因。
8)司法透明度
任何自主系统参与司法决策都应提供令人满意的解释,并由人类权利机构审核。
9)责任
设计师和建设者,是先进人工智能系统的使用、滥用和行动道德意义上的利益相关者,他们有责任也有机会去塑造这些意义。