图神经网络与图同构测试

图神经网络在很多任务上取得了非凡的成功,如:

(1) Node Classification

(2) Link Prediction

(3) Graph Classification

图神经网络的表示能力究竟如何呢?例如,两个不一样的图,对于某个神经网络来说,是否足够可以区分呢?

图神经网络的第 k k k层为:
在这里插入图片描述

为了研究图神经网络的表达能力,需要一种叫multiset的东西,平常我们常说的集合是指不相同元素的聚集,但multiset却可以由重复的元素出现。在这里插入图片描述
我们还需要Weisfeiler-Lehman图同构测试算法,感兴趣的小伙伴去找找古董资料看看哦 :)
【文献:Boris Weisfeiler and AA Lehman. A reduction of a graph to a canonical form and an algebra arising during this reduction. Nauchno-Technicheskaya Informatsia, 2(9):12–16, 1968.】
在这里插入图片描述
Any aggregation-based GNN is at most as powerful as the WL test in distinguishing different graphs.
A natural follow-up question is whether there exist GNNs that are, in principle, as powerful as the WL test? Our answer, in Theorem 3, is yes: if the neighbor aggregation and graph-level readout functions are injective, then the resulting GNN is as powerful as the WL test.
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
图同构网络GIN (ICLR 2019)
在这里插入图片描述
在这里插入图片描述

传送门: 图神经网络GIN原文
https://cs.stanford.edu/people/jure/pubs/gin-iclr19.pdf

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值