19NIPS:GNNExplainer: Generating Explanations for Graph Neural Networks阅读笔记

Stanford University

背景

两类常见的模型解释方式:

  • 对整个模型建立代理网络
    LIME-Local Interpretable Model-Agnostic Explanation

  • 跟踪计算过程的贡献
    特征梯度、BP贡献、因果推断
    Both Misleading especially in Discrete graph

解释目标

标注对预测结果起关键作用的节点、特征
A:标注重要节点(绿色节点) B:标注重要节点的特征(没有被叉的)
A:标注重要节点(绿色节点) B:标注重要节点的特征(没有被叉的)

解释节点

概述:通过一个掩码M获得子图。

具体目标函数:
考虑互信息
Δ熵 = 原来的熵(固定)减去 子图上的熵
互信息越大,则越相关
max┬(𝐺_𝑆 )⁡𝑀 𝐼(𝑌,(𝐺_𝑆,𝑋_𝑆 ))=𝐻(𝑌)−𝐻(𝑌∣𝐺=𝐺_𝑆,𝑋=𝑋_𝑆 )
As联通矩阵经过掩码处理得到子图
min┬𝑀⁡− ∑_(𝑐=1)^𝐶▒𝟙[𝑦=𝑐]   log⁡〖𝑃_Φ 〗 (𝑌=𝑦∣𝐺=𝐴_𝑆⊙σ(𝑀),𝑋=𝑋_𝑆 )

解释节点的特征

概述:通过一个统一的掩码标注特征
具体目标函数:
与节点一同学习
max┬(𝐺_𝑆,𝐹)⁡𝑀 𝐼(𝑌,(𝐺_𝑆,𝐹))=𝐻(𝑌)−𝐻(𝑌∣𝐺=𝐺_𝑆,𝑋=𝑋_𝑆^𝐹 )

在这里插入图片描述
对所有节点,共用F掩码{0,1}

实验设置

数据集:
Barabasi-Albert (BA)随机建图作为base
然后将手作的不同结构子图随机连接到base上
在这里插入图片描述
手作子图并入base

设计了四种:
在这里插入图片描述

Baselines

  • Attn:GAT中的节点Attention weight
  • Grad:将反向梯度作为标注

实验结果

对网格状的子图效果明显超过对比实验
在这里插入图片描述
可见,该方法对边的标注比较完整。
在这里插入图片描述

备注

特殊之处:唯一的针对富特征图的可解释性工作
作者推导节点掩码的时候用了Jensen不等式,有点逻辑不闭环。
在这里插入图片描述
关于用掩码得到子图的公式推导

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值