ICLR2022 GNN 论文阅读笔记(一)GraphSNN

标题

A NEW PERSPECTIVE ON “HOW GRAPH NEURAL NET- WORKS GO BEYOND WEISFEILER-LEHMAN?”
(括号内的内容是个人见解,难免偏颇,望请指正)


主题

  1. 理论上刻画了Message-Passing GNN 比WL-test 的表达能力更强。(当然,这是基于判断不同graph结构的测试上的结论,GNN还有另外一个表达能力就是学习节点等特征的能力。)
  2. 基于以上理论,提出了GraphSNN,在多个区分图结构的数据集上取得了SOTA。

框架

在这里插入图片描述

定义:local isomorphism on neighborhood sub-graphs.

即在neighborhood sub-graphs 上的同构,就叫做邻居子图局部同构。(暂且这么翻译吧。。)

那么什么是neighborhood sub-graphs(邻居子图)呢?见上图: G 1 G_1 G1 v v v邻居子图 S v S_v Sv就是中间的 { v 1 . . . v 4 } \{v_1...v_4\} {v1...v4},包括 v v v自己。

那么什么是overlap子图,比如,假设节点 v 1 v_1 v1的邻居子图为 S v 1 S_{v1} Sv1,那么, S v 1 S_{v1} Sv1 S v S_v Sv重叠的部分,即绿色椭圆部分,定义为 S v v 1 = S v ∩ S v 1 S_{vv_1}=S_{v} \cap S_{v_1} Svv1=SvSv1,即含了 { v 1 , v 2 , v } \{v1,v2,v\} {v1,v2,v}。再加上 S v v 2 , S v v 3 , S v v 4 S_{vv_2},S_{vv_3},S_{vv_4} Svv2,Svv3,Svv4,即为over-subgraphs。

同理,可得出 G 2 G_2 G2的overlab subgraphs。

(Ok,再回到上面的图。上图中,首先分别计算出 G 1 , G 2 G1,G2 G1,G2中的节点 v , u v,u v,u的overlap子图,然后用GMP(graph message passing)框架学习出两个节点的embedding: h v , h u h_v,h_u hv,hu,完事儿。)

接下来作者定义了对于任意两个邻居子图 S i , S j S_i,S_j Si,Sj的三种同构类型:

1. subgraph-isomorphism: S i ≃ s u b g r a p h S j S_i \simeq_{subgraph} S_j SisubgraphSj

邻居子图是同构的; v 1 , v 2 ∈ S i v_1,v_2 \in S_i v1,v2Si是相邻的,有且仅有当 g ( v 1 ) , g ( v 2 ) ∈ S j g(v_1), g(v_2) \in S_j g(v1),g(v2)Sj也是相邻的,并且 h v 1 = h g ( v 1 ) h_{v_1} = h_{g(v_1)} hv1=hg(v1), h v 2 = h g ( v 2 ) h_{v_2}=h_{g(v_2)} hv2=hg(v2)

关于同构的定义其实很简单(即,对于任意两个图 G 1 , G 2 G_1,G_2 G1,G2, 存在一个bijective mapping, g : G 1 → G 2 g: G_1 \rightarrow G_2 g:G1G2, 使得 g ( i ) = j g(i)=j g(i)=j, i ∈ V e r t e x ( G 1 ) , j ∈ V e r t e x ( G 2 ) i \in Vertex(G_1), j\in Vertex(G_2) iVertex(G1),jVertex(G2),详见:等下补充下同构,WL-test相关知识)。

2. overlap-isomorphism: S i ≃ o v e r l a p S j S_i \simeq_{overlap} S_j SioverlapSj

即对于overlap子图中的每一个对overlap子图是subgraph-isomorphism的,即, S i v ≃ s u b g r a p h S j u S_{iv} \simeq_{subgraph} S_{ju} SivsubgraphSju.

3. subtree-isomorphism: S i ≃ s u b t r e e S j S_i \simeq_{subtree} S_j SisubtreeSj

只要求节点 i , j i,j i,j到其邻居节点构成的图同构,并且 h v = h u h_v = h_u hv=hu v ∈ N ^ ( i ) v \in \hat{N}(i) vN^(i), u ∈ N ^ ( j ) u \in \hat{N}(j) uN^(j).

见图:
在这里插入图片描述

定理

在这里插入图片描述
定理一: ≃ s u b g r a p h \simeq_{subgraph} subgraph => ≃ o v e r l a p \simeq_{overlap} overlap => ≃ s u b t r e e \simeq_{subtree} subtree,反过来不行,=>代表推出。

在这里插入图片描述
定理二:如果一个GNN 有足够多层,并且可以将 S i , S j S_i,S_j Si,Sj映射为不同的embeddings的时候,则GNN和WL-1 相当,有且仅当 S i ̸ ≃ s u b t r e e S j S_i \not \simeq_{subtree} S_j SisubtreeSj

在这里插入图片描述
定理三:当一个GNN的agg策略满足下面这三个性质的,且有足够多层,并满足1)substree同构,subgraph不同构, i i i的邻居的multiset不等于 j j j邻居的multiset。2)聚合函数 Φ \Phi Φ是单射的;那么,该GNN就是严格的比1-WL要更具表达能力。(其实这个定义和[1] 中的WL kernel 用于subtree pattern的定义基本很像了。)
在这里插入图片描述
注:这里的kernel function: w w w即用来构造邻接矩阵 A A A,比如 A v u = w ( S v , S v u ) A_{vu}=w(S_v, S_{vu}) Avu=w(Sv,Svu),而 A A A就是决定了聚合的策略,即决定了邻居的权重。

模型

那么基于上面的理论,我们只要构造满足定理三的聚合函数 Φ \Phi Φ的GNN就可以了。

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
这里 γ \gamma γ是一个可学习的参数。

实验

作者做了两类实验,一类是图节点分类,另外一类是图整体分类问题。效果都很好,图分类用到了Standford的OGB,我也在跑这个benchmark。但是没有对比最新SOTA(去年7月的),比如ppa,sota已经80+了,作者是72.
在这里插入图片描述

在这里插入图片描述

总结

(亮点主要是提出了一个新的视角来分析GNN表达能力。)

分析

(个人认为本文思路很像是[1]中继承而来,但是扩展了三种isomorphism,并且计算 w w w的方式也比较有新意,可以从如何构造kernel function上面去挖掘新的想法。但是如果对于是没有 ground truth topology的任务,估计效果就不会很好,比如一些link prediction的任务。)

references

[1] Shervashidze, Nino, et al. “Weisfeiler-lehman graph kernels.” Journal of Machine Learning Research 12.9 (2011).

  • 3
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 1
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值