《GraphSNN: 超越WL同构图测试的图神经网络》论文解读

本文解读了《A New Perspective on “How Graph Neural Networks Go Beyond Weisfeiler-Lehman?”》论文,探讨了如何利用GraphSNN实现对WL同构图检测的超越,涉及图神经网络、通用消息传递框架等关键概念。
摘要由CSDN通过智能技术生成

来源:知乎—鱼wy
地址:https://zhuanlan.zhihu.com/p/435460527

论文:A New Perspective on “How Graph Neural Networks Go Beyond Weisfeiler-Lehman?”
链接:https://openreview.net/forum?id=uxgg9o7bI_3

(这篇论文摘自ICLR2022 open review 四个审稿人不约而同的给了8分,作者信息现在还是匿名状态不知道出自哪个大神之手)

正文


作者对设计功能强大的图神经网络(GNNs)提出了一个新的视角。简而言之,这使得一个通用的解决方案能够将图的结构属性注入到gnn的消息传递聚合方案中。作为理论基础,作者首先在邻域子图上开发了一个新的局部同构层次结构。然后,作者将消息传递聚合方案推广,从理论上描述gnn如何被设计为在WL测试之外更具表现性。为了阐述这个框架,作者提出了一种新的神经模型,称为GraphSNN,并证明了该模型在区分图结构方面严格比WL检测更具表现性。作者通过实证验证了我们的模型在不同的图形学习任务上的强度。结果表明,作者的模型在不牺牲计算的简单性和效率的情况下,不断改进了基准任务上最先进的方法。

在这里插入图片描述

同构图检测

在这里插入图片描述

WL同构图检测

在这里插入图片描述

图神经网络


通用框架

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

通用消息传递框架


在本节中,作者提出了一个通用的消息传递框架(GMP),它能够根据重叠子图将局部结构注入到聚合方案中。在这个框架中,作者从理论上描述了gnn如何被设计成比1-WL更具表现力。

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值