AAAI 2023 | 基于可学习图增强的邻居监督图对比学习

9e7d7fc8076e6a5c1bd6988fc1da6b0d.gif

©PaperWeekly 原创 · 作者 | 沈笑 

单位 | 海南大学副教授

研究方向 | 图神经网络、图对比学习等

邮箱 | shenxiaocam@163.com

本文介绍一篇 AAAI-2023 发表的论文,基于可学习图增强的邻居监督图对比学习 [1]。

c898338048b0180f4f348873080eb5b0.png

论文题目:

Neighbor Contrastive Learning on Learnable Graph Augmentation

论文作者:

沈笑,孙德望,潘世瑞,周犀,杨天若

作者单位:

海南大学,澳大利亚格里菲斯大学,加拿大圣弗朗西斯塞维尔大学

论文链接:

https://ojs.aaai.org/index.php/AAAI/article/view/26168

论文代码:

https://github.com/shenxiaocam/NCLA

03863de941dafa6afd367d59ac086676.png

前言

近几年来,对比学习在 CV 和 NLP 领域的无监督表示学习任务上展现了显著的成果。受此启发,研究者们提出一系列图对比学习(Graph Contrastive Learning)方法 [2, 3],通过结合图神经网络和对比学习,旨在从未标记的图数据中学习嵌入表示,以缓解图数据标签缺乏的问题。

现有的图对比学习方法通常采用人为设计的图增强策略(Handcraft Graph Augmentation),如属性掩蔽 [4]、属性扰动 [5]、删除边 [3]、丢弃节点 [6] 等,生成两个或多个具有差异性的增强视图。然而,由于图数据的多样性,难以找到可适用于不同图数据集的图增强策略,而需要依据领域先验知识或反复试错的方式手动为每个图数据集选择合适的图增强 [6],这大幅限制了图对比学习方法的效率和泛化能力。

另外,现有的人为图增强,有可能删除某些关键的节点或边,严重损坏下游任务的相关信息,导致低质量的图嵌入 [4]。另一方面,现有的图对比学习方法通常将 CV 领域提出的对比损失(如 InfoNCE [7]、NT-Xent [8])直接应用于图结构数据 [3, 6, 9, 10],而忽略了图像与图数据的本质区别。

需要注意的是,InfoNCE 和 NT-Xent 只允许每个锚点构建一对正样本,即同一节点在不同视图中的嵌入构成一对正样本,而将其他与锚点不同的节点均视为负样本。这意味着锚点的邻居节点也视为负样本,进而被推离锚点。然而,大部分的图数据都基于同质性假设,即相连的节点应彼此相似 [11]。因此,直接采用 CV 领域提出的 InfoNCE 和 NT-Xent 作为图对比损失,由于忽略考虑图拓扑结构信息,将导致生成的节点嵌入与图的同质性假设相矛盾。

765d825666c566ffd802bbf06a1f3bb1.png

  • 0
    点赞
  • 6
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值