Stanford University
背景
两类常见的模型解释方式:
-
对整个模型建立代理网络
LIME-Local Interpretable Model-Agnostic Explanation -
跟踪计算过程的贡献
特征梯度、BP贡献、因果推断
Both Misleading especially in Discrete graph
解释目标
标注对预测结果起关键作用的节点、特征
A:标注重要节点(绿色节点) B:标注重要节点的特征(没有被叉的)
解释节点
概述:通过一个掩码M获得子图。
具体目标函数:
考虑互信息
Δ熵 = 原来的熵(固定)减去 子图上的熵
互信息越大,则越相关
As联通矩阵经过掩码处理得到子图
解释节点的特征
概述:通过一个统一的掩码标注特征
具体目标函数:
与节点一同学习
对所有节点,共用F掩码{0,1}
实验设置
数据集:
Barabasi-Albert (BA)随机建图作为base
然后将手作的不同结构子图随机连接到base上
手作子图并入base
设计了四种:
Baselines
- Attn:GAT中的节点Attention weight
- Grad:将反向梯度作为标注
实验结果
对网格状的子图效果明显超过对比实验
可见,该方法对边的标注比较完整。
备注
特殊之处:唯一的针对富特征图的可解释性工作
作者推导节点掩码的时候用了Jensen不等式,有点逻辑不闭环。
关于用掩码得到子图的公式推导