越来越多的人工智能系统广泛应用于深度神经学习网络而被人熟知,它用来通知对人类健康和安全至关重要的决策,例如在自动驾驶或医疗诊断中。这些网络善于识别大型复杂数据集中的模式,以帮助决策。但我们怎么知道他们是正确的呢?麻省理工学院和哈佛大学的Alexander Amini和他的同事们想找出答案。
他们开发了一种神经网络快速处理数据的方法,不仅输出预测值,还根据可用数据的质量输出模型的置信度。这种进步可能会拯救生命,因为深度学习在今天的现实世界中已经得到了应用。网络置信度等级可以是自动驾驶车辆确定“通过交叉口时一切都很清楚”和“可能很清楚,所以停车以防万一”之间的区别。
目前用于神经网络的不确定性估计方法往往计算成本高,而且对于瞬间决策相对较慢。但Amini的方法,被称为“深度证据回归”,加速了这一过程,并可能导出更安全的结果。麻省理工学院计算机科学与人工智能实验室Daniela Rus教授小组的博士生Amini说:“我们不仅需要有高性能模型的能力,还需要能够理解当我们不能信任这些模型时的情况。”。
“这一想法很重要,适用范围很广。它可以用来评估依赖于学习模型的产品。通过估计一个学习模型的不确定性,我们还可以了解到从模型中预期会有多大的误差,以及哪些缺失的数据可以改善模型,”Rus说。