本文作者来自清华大学,现有的GNN存在着过平滑、较差的鲁棒性以及当标记节点缺失时弱泛化性等问题,本文提出一个解决此类问题的框架-图随机神经网络(GRAND)。在GRAND中,本文首先设计了一个随机传播策略来实现图数据的扩展。然后作者利用一致性正则化来优化未标记节点在不同数据扩展中的预测一致性。在图基准数据集上的大量实验表明,在半监督节点分类方面,GRAND显著优于最先进的GNN基线。最后,作者展示了GRAND缓解了过度平滑和非鲁棒性的问题,表现出比现有GNN更好的泛化行为。 代码在这。
Model
下面直接进入模型部分,本文的模型虽然简单但是创新性很足,实验部分的结果是我看GCN以来最好的一次,直接上图:
根据上图架构可以看出,本文的模型是通过某种策略获得多个图,以达到数据增强的作用,再将得到的多个图输入到两层MLP中,最后得到预测标签的结果。
Random Propagation for Graph Data Augmentation
Random Propagation
随机传播分为两个步骤,第一步首先通过随机删除特征X中的一些元素来生成一个扰动的特征矩阵,其次利用生成的扰动矩阵来进行特征传播以此达到增强数据的效果。扰动策略主要有dropout和dropNode两种。</