标题:迈向可解释的人工智能 (XAI) 以在早期预测交通事故
时间:2021.7.31
作者:Muhammad Monjurul Karim, Yu Li, Ruwen Qin
机构:Stony Brook University
链接:https://arxiv.org/abs/2108.00273
简介:
交通事故预测是自动驾驶系统(ADSs)提供安全保证驾驶体验的重要功能。事故预测模型的目的是在事故发生之前及时准确地预测事故。现有的事故预测人工智能模型缺乏对其决策的可解释性解释。尽管这些模型表现良好,但它们对广告用户来说仍然是一个黑匣子,因此很难获得他们的信任。为此,本文提出了一种从dashcam视频数据中学习时空关系特征的选通递归单元(GRU)网络,用于早期预测交通事故。网络中集成了一种称为Grad-CAM的事后注意机制来生成显著性图,作为事故预测决策的视觉解释。眼球跟踪器捕捉人眼注视点,以生成人类注意力地图。将网络生成的显著性图与人类注意图进行比较,评估其可解释性。对公共碰撞数据集的定性和定量结果证实,建议的可解释网络能够在事故发生前平均4.57秒预测事故,平均精度为94.02%。此外,还评估和比较了各种基于事后注意的XAI方法。它证实了本研究选择的梯度CAM可以生成高质量、人类可解释的显著性图(具有1.42归一化扫描路径显著性),用于解释碰撞预测决策。重要的是,研究结果证实了所提出的人工智能模型,采用了人性化设计,能够在事故预测方面超越人类。