AF-GCL:不需要增强的图对比学习

a3fd57a3a226a7cb8915c9364a82f7b9.gif

©作者 | GeorgeM

学校 | 北京大学

研究方向 | 图神经网络

7831590ad7760d2cf333d0d035513249.png

论文标题:

Augmentation-Free Graph Contrastive Learning

论文链接:

https://arxiv.org/abs/2204.04874

现有的图对比学习(GCL)模型依赖于图的增强,来学习在不同的增强图中保持不变的表示。作者发现,图的增强能够保存图的低频部分,而扰动图的高频部分,因此图对比学习模型往往能在同质图上取得很好的表现,但在高频的异质图中表现欠佳。基于此,作者提出了不需要增强的 AF-GCL 模型,它能够利用图神经网络聚合出的特征直接生成自监督信号,并且对图的同质性依赖程度更低。

设 是一个无向图,其中 是顶点集, 是边集。设顶点的总数为 ,边的总数为 ,顶点的标签为 ,其中 , 是类的数量。顶点的特征矩阵为 ,其中 是顶点 的特征, 是输入特征的维数。邻接矩阵为 ,若 则 。

我们的目标是自监督地学习一个 GNN 编码器 ,以顶点特征和图结构作为输入,以顶点的低维表示作为输出,即 。这些表示可以用于下游的监督或半监督任务,如节点分类。

我们定义两种图同质性的衡量标准:点同质性(node homophily)和边同质性(edge homophily)。边同质性定义为连接两个同类顶点的边所占的比例:

39740d1b44696baf3477ecbade9aad86.png

而边同质性定义为:

de7190ebd6df7a5c64c7e8465f2365f3.png

它能够衡量所有节点的平均边-标签一致性。它们都在 的范围内,越接近 代表同质性越强,越接近 代表异质性越强。

定义图的拉普拉斯矩阵(Laplacian matrix)为,其中 ,。对称归一化拉普拉斯矩阵(symmetric normalized Laplacian)定义为,其中 ,是的第 个特征向量, 是对应的特征值矩阵。 是最小的特征值, 是最大的特征值。

亲和矩阵(affinity matrix)可以由拉普拉斯矩阵导出,

402 Payment Required

。 的特征值在 到 之间,常用于设计基于频域的图神经网络,如图卷积网络(GCN)。

对于拉普拉斯矩阵,更小的特征值对应着更低的频率。我们将 按照特征值的大小分解到不同的频率带,即分解为,它的特征值在区间 内,,表示频域区间的个数。具体地说,,,其中对于 ,

66a5bedeb679e73d1554d08332282f78.png

注意到所有分解后的矩阵之和即为原对称归一化拉普拉斯矩阵,即。

我们将图对比学习中常用的增强方法总结于表 1 中。

0a93006de03b6c2e44029b5d2295667c.png

▲ 表1:图对比学习模型中图增强方法的总结。Multiple* 表示采用了多种增强方法,包括删边、加边、删点和随机游走生成子图。

我们希望研究在图的增强中,哪些信息是被保留的,哪些信息是被破坏的。如表 1 所示,常用的图增强方法有四种:属性遮挡(attibute masking)、加边(edge edding)、删边(edge dropping)和图扩散(graph diffusion)。

  • 属性遮挡(Attibute Masking):随机遮挡节点特征的一部分。

  • 加/删边(Edge Adding/Dropping):随机增/删原始图的一部分边。

  • 图扩散(Graph Diffusion):基于个性化 PageRank(PPR)的图扩散定义为 ,其中 是扩散系数。

首先我们以删边为例,研究图结构增强的影响。我们将原始图的对称归一化拉普拉斯矩阵的第 个部分定义为 ,将删边后的增强图的对称归一化拉普拉斯矩阵的第 个部分定义为 。为了研究图增强对不同频率部分的影响,我们用弗罗贝尼乌斯范数(Frobenius norm)作为距离的衡量标准,即 。删边对两个同质图数据集(Cora 和 CiteSeer)和两个异质图数据集(Chameleon 和 Squirrel)的影响如图 1 所示。

29d853962195c0c5daa16d2a84f5774b.png

▲ 图1:在 20% 的删边下,原始图和增强图的分解对称归一化拉普拉斯矩阵的弗罗贝尼乌斯距离(Frobenius distance)。实验独立进行 10 次,结果取平均数。

可以看出,图的增强对低频部分影响更小,对中高频部分影响更大

接着我们以属性遮挡为例,研究特征增强的影响。用 表示傅里叶变换(Fourier transform), 表示傅里叶逆变换(inverse Fourier transform)。设 。我们可以将特征矩阵分解为 ,其中 和 分别表示低频和高频部分。于是我们有

5e7e77a1d2ae7e80fd9ade58a1b2ffdd.png

其中 是一个以 为超参数的阈值函数,它将 的低频和高频部分分开。由于 左边的列对应低频部分,我们将 定义为:

cf6d36a22f1d28e6c7c3573df5afd3c6.png

进一步地,我们定义属性遮挡后的特征矩阵为 ,其低频和高频部分分别为。我们通过计算增强前后特征矩阵的弗罗贝尼乌斯距离(Frobenius distance)来研究属性遮挡的影响,并定义 为 F-norm-low,为 F-norm-high。结果如表 2 所示。

32d792a7147393bc84e8a1891929d9bf.png

▲ 表2:在 30% 的属性遮挡下,原始节点特征和增强节点特征的距离。我们设定 R=0.8×F。

可以看出,属性遮挡总是影响高频部分

综上,图的增强会破坏高频信息,而高频信息在下游任务中,尤其是对异质图而言,是非常关键的。因此这导致现有的图对比学习方法在异质图上表现欠佳。

下面我们分析节点特征 的集中特性(concentration property),它对于同质图和异质图都是成立的。利用这个特性,我们提出一种不需要增强的图对比学习模型,AF-GCL。

我们假设节点特征服从高斯混合模型(Gaussian mixture model)。简单起见,我们只关注二分类问题。在(二元)标签 和一个本征向量 下,节点特征可表示为

f6afd342afc47576704605f805bbf4fd.png

其中 是满足独立标准分布的随机向量, 表示本征类。也就是说,以 为类的节点的特征服从相同的分布,。进一步地,我们可以对邻居特征做出如下假设。

Assumption 1 对顶点 ,其邻居的标签独立且服从分布 。

该假设表明邻居的标签分布只与中心节点的标签有关,这包括了同质和异质的情况。在该假设下,我们可以证明如下的引理 1,即不论同质还是异质,相同标签节点聚合后的节点特征总是具有相同的嵌入(embedding)。特别地,如图 2 所示,我们对应由 GNN 和 MLP 生成的嵌入为 , 是对应于输入 的嵌入。简单起见,我们引入 来表示去掉非线性后等价的 GCN 和 MLP 的线性权重。

190ec6cc91c20107b938434d6d0d74a0.png

▲ 图2:AF-GCL 模型的概述。

Lemma 1 考虑一个满足假设 1 和式(1)的图 ,其嵌入的数学期望为

5f9411d479ba42d32444f422345c63ac.png

进一步地,在至少 的概率下,我们有

ebc8fbafc56d4056eb0c9d0096ed55f5.png

其中次高斯范数

402 Payment Required

(因为特征的每一维独立同分布), 是 的最大奇异值。

据此我们可以提出 AF-GCL。如图2,在每个迭代中,首先由编码器生成 ,再由 L2-正则化的 MLP 生成 。在每次迭代中,我们取样 个点来组成种子点集(seed node set);它们的 邻居组成节点池(node pool)。对每个种子节点(seed node),其在节点池中最相近的 个节点被选为正样本,记为 。具体地说就是

a9470d1deace6aa34ff8fd6fd21088f2.png

由于隐藏表示(hidden representation)是正则化的,隐藏表示的内积就等于余弦相似度(cosine similarity)。目标函数为:

ca8e3a673ef4950f6883557a90f901ae.png

其中节点 , 和 是从它们对应的点集中随机均匀选取的。综上,AF-GCL 的训练算法如算法 1 所示。

888a8fdf5ae196d7b24234569c4660fc.png

▲ 算法1:AF-GCL。算法中的 Eq. (8) 指的是目标函数。

下面我们从理论上导出 AF-GCL 的表现保证(performance guarantee)。首先引入变换图(transformed graph)的概念。

Definition 1(Transformed Graph)给定原始图 和它的顶点集 ,其变换图 具有相同的顶点集 ,但它的边由 AF-GCL 选定的正样本顶点对连成,,如图 3 所示。

9732b942d0b9eda12b0ddaf45ce6b885.png

▲ 图3:由正样本对形成的变换图。

设变换图的邻接矩阵为 ,边数为 ,对称归一化拉普拉斯矩阵为 。下面的引理 2 表明优化 AF-GCL 的目标函数等价于变换图的矩阵分解(matrix factorization)。

Lemma 2 设矩阵分解的可学习的嵌入为 。令 。则,矩阵分解的损失函数 等价于 AF-GCL 的损失函数,只相差一个常数:

eecc14fde44607c614107cad21541f3c.png

上述引理将优化对比损失函数和矩阵分解联系了起来,我们可以据此给出 AF-GCL 的表现保证。首先分析隐藏表示的内积,。

Theorem 1 考虑一个满足假设 1 和式 (1) 的图 。在至少 的概率下,我们有

7a1632da91a62a8e7cc0cbf3f5af3aaa.png

其中 ,次指数范数 。

由上述定理我们知道隐藏表示的内积以大概率近似于其数学期望。进一步,假设在图的特征和标签分布 下,同质性的期望满足 ,其中 。结合引理 2 和定理 1,我们给出 AF-GCL 理论上的表现保证:

Theorem 2 令 为 GCL 损失函数 的最小化函数。存在一个线性分类器 ,,使得在至少 的概率下,

71500a2f4f41b863727fd11d3da29b34.png

其中 是变换图的对称归一化拉普拉斯矩阵的第 小的特征值。

上述定理说明,如果变换图的同质性较大,则预测错误的上界会更小。同时,随着隐藏表示的维数 的增大,该上界也会变小。

实验部分。实验的具体配置见原论文,这里直接给出结果。在同质图数据集上的实验结果如表 3 所示。

9231ba31d0fd58b2eb1f2eeae4d4f2e9.png

▲ 表3:同质图上的图对比学习实验结果。无监督的最优结果用粗体标出。OOM 表示在 32 GB 的 GPU 上内存溢出。

基于图的增强的自监督模型超过了对应的有监督的模型。如前所述,这些增强方法破坏了高频信息,InfoNCE 损失函数使得 GNN 模型保存了低频信息。低频信息的保存让这些对比学习模型在同质图上取得了很好的表现。AF-GCL 在其中 3 个数据集上取得了最优的表现,在其他数据集上也取得了次优的表现。

在异质图数据集上的实验结果如表 4 所示。

c1353efced5b5ea364caf96aad331281.png

▲ 表4:异质图上的图对比学习实验结果。无监督的最优结果用粗体标出。OOM 表示在 32 GB 的 GPU 上内存溢出。

与同质图上的实验不同,在大多数数据集上现有的对比学习方法并不能超越一个简单的有监督 GCN。而 AF-GCL 在其中 5 个数据集上都以很大优势取得了最好的表现。在 Twitch-gamers 数据集上,AF-GCL 的表现也不错,毕竟这是 6 个异质图数据集中同质性最高的。对于同质性最低的两个数据集,Chameleon 和 Squirrel,AF-GCL 的表现比其他方法好了很多。这证明了 AF-GCL 模型适合用于异质图。

总结一下,现有的图对比学习方法倾向于保存图的低频信息,打乱图的高频信息,这导致它们在同质图上很成功,但在异质图上并不成功。在对图神经网络聚合特征的理论分析启发下,作者提出了不需要增强的图对比学习模型 AF-GCL,它直接由聚合后的特征生成自监督信号。作者还给出了 AF-GCL 的表现的理论保证。实验中,AF-GCL 在 8 个同质图数据集中的 4 个上都取得了最好的表现,在另外 4 个上也取得了很好的表现;在 6 个异质图数据集中的 5 个上都取得了最好的表现,在另外 1 个上也取得了很好的表现。

更多阅读

32d6246dc2b5db3c937df4ed59dd392c.png

e253ad80ee19365bae570b3f124d48ee.png

64c914a259a761c656bd249de1f8983c.png

ad8dfbbe597eb62b0e78bdcb9a762404.gif

#投 稿 通 道#

 让你的文字被更多人看到 

如何才能让更多的优质内容以更短路径到达读者群体,缩短读者寻找优质内容的成本呢?答案就是:你不认识的人。

总有一些你不认识的人,知道你想知道的东西。PaperWeekly 或许可以成为一座桥梁,促使不同背景、不同方向的学者和学术灵感相互碰撞,迸发出更多的可能性。 

PaperWeekly 鼓励高校实验室或个人,在我们的平台上分享各类优质内容,可以是最新论文解读,也可以是学术热点剖析科研心得竞赛经验讲解等。我们的目的只有一个,让知识真正流动起来。

📝 稿件基本要求:

• 文章确系个人原创作品,未曾在公开渠道发表,如为其他平台已发表或待发表的文章,请明确标注 

• 稿件建议以 markdown 格式撰写,文中配图以附件形式发送,要求图片清晰,无版权问题

• PaperWeekly 尊重原作者署名权,并将为每篇被采纳的原创首发稿件,提供业内具有竞争力稿酬,具体依据文章阅读量和文章质量阶梯制结算

📬 投稿通道:

• 投稿邮箱:hr@paperweekly.site 

• 来稿请备注即时联系方式(微信),以便我们在稿件选用的第一时间联系作者

• 您也可以直接添加小编微信(pwbot02)快速投稿,备注:姓名-投稿

22caa8296d1969694440b48b3b68aaf9.png

△长按添加PaperWeekly小编

🔍

现在,在「知乎」也能找到我们了

进入知乎首页搜索「PaperWeekly」

点击「关注」订阅我们的专栏吧

·

2f401b81a9c514ff8e0d06cb57f73d1a.png

  • 0
    点赞
  • 9
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值