AAAI 2022 | ProtGNN:自解释图神经网络络

3d8644bd55c264dfc8dd38344cd9c459.gif

作者 | 庄双双

单位 | 南京邮电大学

来源 | MIND Laboratory

c5eb7166c0a6dfb872b8210d520aa91b.png

论文标题:

ProtGNN: Towards Self-Explaining Graph Neural Networks

收录来源:

AAAI 2022

论文来源:

https://arxiv.org/abs/2112.00911


9c7cffaa3e0241174f7258186194e470.png


论文介绍

尽管最近在图神经网络 (GNNs) 方面取得了进展,但解释图神经网络的预测仍然具有挑战性。现有的解释方法主要集中在事后解释上,其中使用另一个解释模型为一个训练过的 GNN 提供解释。事后方法未能揭示 GNN 的原始推理过程,这一事实提出了构建具有内置可解释性的 GNN 的需要。

在这项工作中,作者提出了原型图神经网络 (ProtGNN),它将原型学习与 GNN 结合起来,为 GNN 的解释提供了一个新的视角。在 ProtGNN 中,解释自然来源于基于案例的推理过程,实际上在分类过程中使用。ProtGNN 的预测是通过将输入与潜在空间中的一些学习原型进行比较而得到的。

此外,为了更好的可解释性和更高的效率,作者引入了一个新的条件子图采样模块来指示输入图的哪一部分与 ProtGNN+ 中的每个原型最相似。最后,作者在广泛的数据集上评估了模型,并进行了具体的案例研究。广泛的结果表明,ProtGNN 和 ProtGNN+ 可以提供内在的可解释性,同时实现与不可解释性的对等对象相当的性能。

60786829125cad4d89370889b74feda3.png


论文方法

作者利用原型学习的概念来构建具有内置可解释性的 GNN(即自我解释的 GNN)。与事后解释方法相比,自我解释 GNN 所产生的解释实际上是在分类过程中使用的,而不是在分类后产生的。基于原型学习构建自我解释的 GNN 带来了独特的挑战。首先,边缘的离散性使得图形原型的投影和可视化变得困难。其次,图结构的组合性质使得很难建立高效和高精度的自解释模型。文中为解决上述挑战,并提出了原型图神经网络 (ProtGNN),这为 GNN 的解释提供了一个新的视角。

ProtGNN/ProtGNN+ 的整体架构如下:

f0158c5b88cb884e7146c2c5085c1921.png

2.1 ProtGNN Architecture

模型主要由三个核心模块构成:GNN Encoder,Prototype Layer 和 Fully Connected Layer。

GNN Encoder:给定输入图 ,图编码层 f 将 映射为固定长度的图嵌入 h。

Prototype Layer:在原型层中,模型为每个类分配一个预先确定的原型数 m。对于输入图 的嵌入向量 h,计算 h 与原型之间的相似性分数:

48479c3b8dc8d9c4a94c9b6c5e36e9d2.png

其中, 为某一类别的第 k 个原型嵌入, 设置为一较小值 (e.g., 1e-4) 以保证结果始终大于 0。

Fully Connected Layer:基于原型层得到的相似性分数,全连接层过 Softmax 函数计算每个类的输出概率。

2.2 Learning Objective

模型的目标是学习一个具有准确性和内在可解释性的 ProtGNN。为了提高准确性,作者在训练数据集上采用交叉熵损失函数:

7afef21f811c3a034f7748b04bfd58e5.png

为了更好的可解释性,作者在构建可解释性的原型时考虑了 3 个约束条件: 

1. 首先,集群成本 (Clst) 每个图的嵌入至少应该是 c 输给一个自己类的原型: 

8d29ad94bce07a46fe650c6316e8e46e.png

2. 其次,分离成本 (Sep) 每个图的嵌入都应该远离所属类的原型:

67a584312b4c10720b5113c7d124f2f8.png

3. 最后,多样性损失 (Div) 来使学习原型的多样性,避免原型之间过于接近:

230f79bd5773df8fe59390ffcbd80616.png

综上所述,最终的目标函数是:

7f440f60eb3fa4b835e6c39f4bd637bf.png

其中,、 和 是控制损失权重的超参数。 是属于 类的原型。 为设置的余弦相似度阈值。

2.3 Prototype Projection

学习到的原型是不能直接解释的嵌入向量。为了更好地解释和可视化,作者设计了一个在训练阶段执行的投影程序。具体来说,让每个原型转移到与的同一类的最近的潜在训练子图上,这样就可以在概念上将每个原型等同于一个子图。

e34753dfcce74699ed5c8dcc2778a070.png

在图形原型投影中,作者使用蒙特卡罗树搜索算法 (MCTS) (Silveretal.2017) 作为搜索算法来指导子图探索(见图 2)。

256f79b4c4a7043c9e4146a3458f46f7.png

2.4 Conditional Subgraph Sampling module

作者进一步提出了一个新的条件子图采样模块的 ProtGNN+,以提供更好的解释在 ProtGNN+ 中,不仅显示了与原型的相似度分数,而且还确定了作为推理过程的一部分,输入图的哪一部分与每个原型最相似。 

子图采样模块为每个原型输出不同的子图嵌入。随着图大小的时间复杂度呈指数增长,并行化和泛化的难度使 MCTS 算法成为一个不可取的选择。而是提出一种参数化方法进行子图搜索。 

形式上,让 是指示节点 i 和 j 之间的边是否被选择的二进制变量。 的矩阵记为 。为了提高效率和可推广性,作者假设解释图为随机图,采用深度神经网络来学习:

001da735bc607729fcd16599b1e6d85d.png

其中, 为函数,MLP为参数的多层感知器, 是连接操作。 和 是从 GNN 编码器中获得的节点嵌入,它编码的特征以及节点邻域的结构信息。然后子图搜索的目标函数为:

503f1a0ed59b2dae7d799fcbc3eda6d5.png

其中, 是预算正则化 的权重。在实验中作者采用随机梯度下降法对目标函数进行了优化。

2.5.2 Training Procedures

571ec60194ccc5a0a28e6c3d72a9275f.png

作者采用梯度下降法来优化等式中的目标函数,每隔几个训练 epoch 执行一次原型投影步骤。

e155cea0639e7c507e36e1031e651810.png


实验结果

将 ProtGNN / ProtGNN+ 模型与三种不同的 GNN 评估。

cc01f48486da9bf8b06e1a3f3e42ad17.png

结果显示,ProtGNN 和 ProtGNN+ 实现了与相应的原始 GNN 模型相当的分类性能。 

对于 MUTAG 和 Graph-SST2 案例研究:

e90762306cf50007b6dc0d5edf9e4f17.png

结果显示,ProtGNN 和 ProtGNN+ 能够准确可视化原型并识别出相似子图,具有较好的内在可解释性。

t-SNE 上的可视化:

595560110973bf78dcc40ffaf9d5f77c.png

图中可以观察到原型可以占据图嵌入的中心,这验证了原型学习的有效性。

2d4f3b177328cd9b76d7fda6bdfe2a44.png


总结

虽然人们已经做出了广泛的努力来从不同的角度解释 GNN,但现有的方法都不能为 GNN 提供内置的解释。在本文中,作者提出了 ProtGNN/ProtGNN+,它为 GNN 的解释提供了一个新的视角。ProtGNN 的预测是通过将输入与原型层中的一些学习原型进行比较来获得的。为了更好的可解释性和更高的效率,提出了一种新的条件子图采样模块来指示与原型最相似的子图。大量的实验结果表明,作者的方法可以提供人类可接受的分类精度、时间复杂度和人类可理解的推理过程。

更多阅读

40b1663e8dd26bfca277fdb7f86408c3.png

a363826f69e60d742a1cac595bba3adb.png

945e80892eddf28b98d15ca60c3a3a4b.png

26056a5d9f77605607b7050fa8d62c32.gif

#投 稿 通 道#

 让你的文字被更多人看到 

如何才能让更多的优质内容以更短路径到达读者群体,缩短读者寻找优质内容的成本呢?答案就是:你不认识的人。

总有一些你不认识的人,知道你想知道的东西。PaperWeekly 或许可以成为一座桥梁,促使不同背景、不同方向的学者和学术灵感相互碰撞,迸发出更多的可能性。 

PaperWeekly 鼓励高校实验室或个人,在我们的平台上分享各类优质内容,可以是最新论文解读,也可以是学术热点剖析科研心得竞赛经验讲解等。我们的目的只有一个,让知识真正流动起来。

📝 稿件基本要求:

• 文章确系个人原创作品,未曾在公开渠道发表,如为其他平台已发表或待发表的文章,请明确标注 

• 稿件建议以 markdown 格式撰写,文中配图以附件形式发送,要求图片清晰,无版权问题

• PaperWeekly 尊重原作者署名权,并将为每篇被采纳的原创首发稿件,提供业内具有竞争力稿酬,具体依据文章阅读量和文章质量阶梯制结算

📬 投稿通道:

• 投稿邮箱:hr@paperweekly.site 

• 来稿请备注即时联系方式(微信),以便我们在稿件选用的第一时间联系作者

• 您也可以直接添加小编微信(pwbot02)快速投稿,备注:姓名-投稿

dc9e09d65e41a2688bbcb827327d337c.png

△长按添加PaperWeekly小编

🔍

现在,在「知乎」也能找到我们了

进入知乎首页搜索「PaperWeekly」

点击「关注」订阅我们的专栏吧

·

03be09cc9cbc5c96eb050ccb75b67f46.jpeg

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值