【专栏:人物观点】重要的进展,往往会隐藏在“细微”的观点当中。
作者:李梦佳
AI已经足够聪明,但似乎对人类的偏好还不甚了解。
去年的一次演讲中,Stuart Russell从人本主义的角度高屋建瓴地探讨了如何打造「可证明有益的AI」。这也是他19年底的著作《AI新生:破解人机共存密码——人类最后一个大问题》中的核心思想。
Russell 所提出的辅助博弈模型基于三个非正式的原则: 机器的唯一目标是满足人类的偏好;机器不知道这些偏好是什么(正是这种不确定性使人类能够保持控制权);而人类主动的行为选择,为这些偏好提供了证据。
如果系统设计者将这三原则运用到开发中,则机器的行为方式会与传统的AI模型大相径庭,因为在标准模型中,人类偏好并不存在。
以自动驾驶汽车为例,一名乘客给车下达的任务是将其送往机场,在标准模型下,汽车将不惜一切代价试图实现这一目标,包括不让自身系统被「关闭」。
自动驾驶最大的问题在于,「直到今天,没有一辆无人驾驶汽车知道人们不喜欢被撞死。」(引用自Human Compatible: Artificial Intelligence and the Problem of Control)
「在新的模型中,思维方式完全不同,」Russell认为,最理想的情况是,新模型让机器或算法有服从人类的自主性,在采取行动之前征求许可,保证让「侵入最小化」,并通过提供更多选择来赋予用户行为的权力。
「有了这个新模型,人工智能性能越好,结果就越好,因为它将能够更好地推断你的偏好,并更好地满足这些偏好。」
Stuart Russell
加州大学伯克利分校计算机科学家,人类兼容人工智能中心(CHAI)主任,人工智能研究实验室指导委员会(BAIR)成员。世界经济论坛人工智能和机器人委员会副主席,美国科学促进会(AAAS)会士,美国人工智能协会(AAAI)会士。曾与谷歌研究总监彼得·诺维格合著,出版了人工智能领域里的“标准教科书”《人工智能》,该书被128个国家的1400多所大学使用。
广为人知的著作包括《知识在类比和归纳中的应