NeurIPS 2019 开源论文 | 万能的GNN解释器

作者丨纪厚业

学校丨北京邮电大学博士生

研究方向丨异质图神经网络及其应用

本文由斯坦福 Jure 组发表在 NeurIPS 2019 上,一作 Rex Ying 也是著名的 GraphSAGE 的作者。代码和数据:

https://github.com/RexYing/gnn-model-explainer

引言

图神经网络(Graph Neural Network), 作为深度学习领域最热门的方向之一,相关论文在各大顶会层出不穷。但是,图神经网络的解释性问题没有得到较多的关注。图神经网络的解释性是非常有必要的:1)提升了 GNN 的可信程度;2)在一些注重公平性,隐私性和安全性的决策应用,可以提升决策的透明度;3)可以更好的理解图本身的特性。 

虽然一些基于 Attention 机制的模型(如 Graph Attention Network)可以一定程度上对 GNN 进行解释。但是,作者认为它们有两个问题:1)GAT 可以学习节点之间关系的权重,但是其只能实现对结构的进行解释而无法通过特征的角度进行解释;2)节点的 1-hop 邻居和 2-hop 邻居可能有重叠,GAT 会学习到同一对节点之间的不同权重。这时候到底该用那个无法抉择。 

因此,本文提出了 GNNExplainer,可以从网络结构和节点属性的角度来对任意图神经网络和任意图挖掘任务生成解释。GNNExplainer 旨在探寻与预测结果最相关的子图结构来实现对结果的解释,其中 Graph Mask 和 Feature Mask 可以分别对实现对结构和特征的筛选。

上图给了一个如何对 GNN 预测的节点分类(Basketball 和 Sailing)的结果进行解释。针对节点及其 label 篮球,其邻居中很多人都喜欢球类也有一些喜欢非球类, GNNExplainer 可以自动的找到邻居中都喜欢球类的这些人。同样的,针对节点,GNNExplainer 也可以发现其好友中同样喜欢水上/沙滩类运动的好友。

模型

作者首先归纳了 GNN 的三个步骤:1)MSG,构建节点之间需要传递的消息;2)AGG,收集节点相关的消息;3)UPDATE,更新节点表示。下图解释了 GNNExplainer 要做的事情:自动发现重要的消息和特征。

Explanation via

  • 0
    点赞
  • 3
    收藏
    觉得还不错? 一键收藏
  • 1
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值