Stuart Russell:有益AI三原则,需满足人类偏好

计算机科学家Stuart Russell提出有益AI的三原则,强调AI应满足人类偏好而不只是完成目标。他指出标准AI模型的问题在于无法准确理解和满足人类的复杂需求,可能导致反效果。新模型基于辅助博弈,要求AI不确定人类偏好、尊重人类行为的证明,并在行动前征得许可,确保最小化侵入和最大化用户控制权。这一框架有助于构建与人类更加和谐相处的AI系统。
摘要由CSDN通过智能技术生成

‍‍

【专栏:人物观点】重要的进展,往往会隐藏在“细微”的观点当中。

作者:李梦佳

AI已经足够聪明,但似乎对人类的偏好还不甚了解。

 

去年的一次演讲中,Stuart Russell从人本主义的角度高屋建瓴地探讨了如何打造「可证明有益的AI」。这也是他19年底的著作《AI新生:破解人机共存密码——人类最后一个大问题》中的核心思想。

 

Russell 所提出的辅助博弈模型基于三个非正式的原则: 机器的唯一目标是满足人类的偏好;机器不知道这些偏好是什么(正是这种不确定性使人类能够保持控制权);而人类主动的行为选择,为这些偏好提供了证据。

 

如果系统设计者将这三原则运用到开发中,则机器的行为方式会与传统的AI模型大相径庭,因为在标准模型中,人类偏好并不存在。

 

以自动驾驶汽车为例,一名乘客给车下达的任务是将其送往机场,在标准模型下,汽车将不惜一切代价试图实现这一目标,包括不让自身系统被「关闭」。

 

自动驾驶最大的问题在于,「直到今天,没有一辆无人驾驶汽车知道人们不喜欢被撞死。」(引用自Human Compatible: Artificial Intelligence and the Problem of Control)

 

「在新的模型中,思维方式完全不同,」Russell认为,最理想的情况是,新模型让机器或算法有服从人类的自主性,在采取行动之前征求许可,保证让「侵入最小化」,并通过提供更多选择来赋予用户行为的权力。

 

「有了这个新模型,人工智能性能越好,结果就越好,因为它将能够更好地推断你的偏好,并更好地满足这些偏好。」


Stuart Russell

 

加州大学伯克利分校计算机科学家,人类兼容人工智能中心(CHAI)主任,人工智能研究实验室指导委员会(BAIR)成员。世界经济论坛人工智能和机器人委员会副主席,美国科学促进会(AAAS)会士,美国人工智能协会(AAAI)会士。曾与谷歌研究总监彼得·诺维格合著,出版了人工智能领域里的“标准教科书”《人工智能》,该书被128个国家的1400多所大学使用。

 

广为人知的著作包括《知识在类比和归纳中的应

评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值