#今日论文推荐# AF-GCL:不需要增强的图对比学习

#今日论文推荐# AF-GCL:不需要增强的图对比学习

现有的图对比学习(GCL)模型依赖于图的增强,来学习在不同的增强图中保持不变的表示。作者发现,图的增强能够保存图的低频部分,而扰动图的高频部分,因此图对比学习模型往往能在同质图上取得很好的表现,但在高频的异质图中表现欠佳。基于此,作者提出了不需要增强的 AF-GCL 模型,它能够利用图神经网络聚合出的特征直接生成自监督信号,并且对图的同质性依赖程度更低。设  是一个无向图,其中  是顶点集, 是边集。设顶点的总数为 ,边的总数为 ,顶点的标签为 ,其中 , 是类的数量。顶点的特征矩阵为 ,其中  是顶点  的特征, 是输入特征的维数。邻接矩阵为 ,若  则 。
我们的目标是自监督地学习一个 GNN 编码器 ,以顶点特征和图结构作为输入,以顶点的低维表示作为输出,即 。这些表示可以用于下游的监督或半监督任务,如节点分类。
我们定义两种图同质性的衡量标准:点同质性(node homophily)和边同质性(edge homophily)。

论文题目:Augmentation-Free Graph Contrastive Learning
详细解读:https://www.aminer.cn/research_report/628afa0a7cb68b460fbf5bbc?download=falseicon-default.png?t=M4ADhttps://www.aminer.cn/research_report/628afa0a7cb68b460fbf5bbc?download=false
AMiner链接:https://www.aminer.cn/?f=cs

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值