GraphLime将LIME算法扩展到深度图模型,并研究不同节点特征对节点分类任务的重要性。
- 论文标题:GraphLIME: Local Interpretable Model Explanations for Graph Neural Networks
- 论文地址:https://arxiv.org/pdf/2001.06216.pdf
GraphLIME实验
实验目的
研究GraphLIME的有效性。
首先,研究GraphLIME能否过滤无用的特征并选择有用的特征作为解释。
其次,研究GraphLIME的解释能否帮助用户确定预测是否可信。
最后,研究GraphLIME的解释能否帮助用户选择更好的分类器。
实验方案
验证GraphLIME对特征的过滤能力
与其他解释器做对比实验
首先,我们在每个样本的特征向量中人工随机添加10个“噪声”特征。
然后,我们训练出GraphSAGE模型或GAT模型,让其测试准确率均在80%以上。因此,我们获得了训练模型的无用特征集(10个“噪声特征”)。
最后,我们对每个解释框架的200个测试样本进行了解释,并根据样本在不同数量噪声特征上的频率分布来比较它们的性能。
我们利用核密度估计(KDE)在Cora和Pubmed上绘制5种不同解释框架下,样本在不同数量噪声特征上的频率分布,并