GraphLime将LIME算法扩展到深度图模型,并研究不同节点特征对节点分类任务的重要性。
- 论文标题:GraphLIME: Local Interpretable Model Explanations for Graph Neural Networks
- 论文地址:https://arxiv.org/pdf/2001.06216.pdf
实验
在这一部分中,我们给出了使用两个真实世界的数据集来研究所提出的框架GraphLIME和现有的GNN模型解释方法的性能的实验。特别地,我们解决了以下三个问题:
(1)解释器能否从嘈杂的图数据中选择真实的信息特征;
(2)解释器的解释能否指导用户确定对预测的信任;
(3)解释是否有助于进一步选择更好的分类器。
布置
我们对广泛使用的GNN模型GraphSAGE[11]和GA T[15]进行了培训,以便进行下面的解释性实验。我们进行了模拟用户实验,以评估所提出的框架、GraphLIME和其他解释方法的有效性。更具体地说,我们比较了所提出的框架GraphLIME和LIME[3]框架,后者利用摄动法对数据进行采样,并训练线性解释模型LASSO,根据线性解释模型的系数选择特征作为解释。此外,我们将其与GNNexplexer[9]进行了比较,GNNexplexer[9]利用互信息来找到具有相关特征的子图来解释GNN模型。我们还将其与基于贪婪过程的方法[29]和随机过程进行了比较,贪婪过程[29]贪婪地删除预测的最重要的特征,直到预测改变,随机过程随机选择K个特征作为对所解释的预测的解释。
在我们的实验中,我们使用了两个图数据集,即CORA和Pubmed。CORA