图神经网络(二十三) Data Augmentation for Graph Neural Networks,AAAI2021

本文的作者来自美国圣母大学。
数据增强技术已被广泛用于提高机器学习模型的通用性。然而,对于图数据增强的工作研究较少。这主要是由于图的复杂、非欧几里得结构限制了可能的操作操作。本文讨论了图数据增强的实践和理论动机、考虑因素和策略。工作表明,神经边缘预测可以有效地编码类同质结构促进内部类边并降级类间的边。之后提出了GAUG图形数据增加框架,提高GNN架构和数据集的性能。

Introduction

本文归纳了现有的三种图数据增强的办法。DropEdge。ADARdge,在预测具有相同(不同)标签且具有高置信度的节点之间添加(删除)边。BGCN,利用GCN生成的多个去噪图训练assortative mixed membership stochastic block model,并得到多个GCN的集成结果。本文讨论了如何通过去除噪声边和添加原始图中可能存在的缺失边来促进消息传递,从而使GNN性能受益,以及它与类内和类间边的关系。下图展示了添加或者删除边的有效性。
在这里插入图片描述
黑色、纯蓝色、虚线蓝色边分别表示原始图连通性、新添加的边和删除的边。(a)表示GCN在原始图上的表现;(b)表示随机删除、添加边使得性能下降;GAUG增强方法©显示了显著的相对性能改进,缩小了omniscient, class-aware的差距(d)。这里说一下我对omniscient这个词的理解,也就是所有的标签都已知,因此类内部通过添加边的方式构成了一个连通分量,并且尽可能多的删除类间的无用边,因此使得准确率最高。
本文提出了两种不同的增强方式:GAUG-M and GAUG-O。GAUG-M通过边缘预

  • 1
    点赞
  • 8
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 1
    评论
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

五月的echo

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值