【论文笔记】BGRL:Large-Scale Representation Learning on Graphs via Bootstrapping(简要笔记供复习使用)

BGRL:Large-Scale Representation Learning on Graphs via Bootstrapping

文章地址:Large-Scale Representation Learning on Graphs via Bootstrapping

Motivation

  • 现有自监督学习的方法大多需要大量的负样本和大规模的数据增强,而选择负样本的原则的缺失导致负样本不一定会增加模型精度,尤其是在大模型中
  • CV领域出现了无负例对比学习方法BYOL

Contribution

  • 受CV方向BYOL的启发,将图对比任务变为一个样本预测的问题,训练只需要简单的样本增强并抛弃了负例

Method

  • 先利用Augmentation对图进行增强,经过一个GNN动量编码器层(同Moco),再经过一个GNN的预测层 p θ p_{\theta} pθ完成两个视图的构建
    • 注:计算Loss时没有先使用BYOL中类似的FFN进行降低维度操作,对图任务利用FFN会导致维度过小信息不足
    • 对比所有节点对的余弦相似度使二者靠近,并且做了对称损失
    • symmetry-breaking technique对称性破坏技术
  • Loss

    − 2 N ∑ i = 0 N − 1 Z ~ ( 1 , i ) H ~ ( 2 , i ) ⊤ ∥ Z ~ ( 1 , i ) ∥ ∥ H ~ ( 2 , i ) ∥ {-\frac{2}{N}\sum_{i=0}^{N-1}\frac{\widetilde{\mathbf{Z}}_{(1,i)}\widetilde{\mathbf{H}}_{(2,i)}^{\top}}{\|\widetilde{\mathbf{Z}}_{(1,i)}\|\|\widetilde{\mathbf{H}}_{(2,i)}\|}} N2i=0N1Z (1,i)∥∥H (2,i)Z (1,i)H (2,i)

    直观解释:对两图中对应节点取余弦距离,并求和取平均

在这里插入图片描述

  • Augmentation
    • 利用固定概率的节点维度掩码和边掩码(沿用GRACE),便于后期Loss计算,不使用节点屏蔽增强

Details

  • Complexity Analysis

    在这里插入图片描述

    由于不需要负样本,因此可以大幅降低内存消耗
  • Experimental Analysis

    在这里插入图片描述

  • 7
    点赞
  • 8
    收藏
    觉得还不错? 一键收藏
  • 1
    评论
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值