Class-Specific Explainability for Deep Time Series Classifiers
可解释性有助于用户信任时间序列分类的深度学习解决方案。然而,现有的多类时间序列分类器可解释性方法一次只关注一个类别,忽略了类别之间的关系。相反,当分类器在许多类别之间进行选择时,有效的解释必须显示所选类别与其他类别的区别。现在,我们将这一概念形式化,研究深度时间序列分类器特定类别可解释性的开放问题,这是一个具有挑战性和影响的问题设置。本文设计了一种新的可解释性方法DEMUX,通过自适应地确保其解释突出模型专门用于其预测类的输入时间序列中的区域,来学习用于解释深度多类时间序列分类器的显著图。DEMUX采用一种基于梯度的方法,由三个相互依赖的模块组成,组合起来生成一致的、特定于类的显著图,这些显著图既忠实于分类器的行为,又易于被最终用户理解。实验研究表明,在解释两种类型的深度时间序列分类器时,DEMUX在五个流行的数据集上的表现优于9个最先进的替代方案。通过一个案例研究,证明了DEMUX的解释确实突出了分类器眼中预测的类与其他类的区别。
研究问题:
本文研究了多类时间序列分类器的类特定可解释性公开问题:给定一个时间序列和一个预训练的多类分类器,旨在为分类器的预测类生成一个类特定的显著性图。显著图是一个在时间序列实例中每个时间步都有一个元素的向量,根据分类器,一个元素的值越高,表明该时间步的重要性越高。
模型