其实本文就是与ICLR19年发表的一篇论文Manifold Mixup做了一个结合,利用Manifold Mixup提出了一种基于半监督节点分类的图神经网络正则化方法,通过参数共享和基于插值的正则化,与图神经网络共同训练全连接网络。最主要的难点在于从理论上分析了GraphMix如何改进底层图神经网络的泛化边界,而没有对图神经网络的聚合层数或深度做任何假设。本文的方法也可以与一些基线模型相结合,比如GCN,GAT,Graph-U-Net等。为了简化我们暂时不看大量的公式证明,直接看Mixup数据增强的思想如何应用在图神经网络中。
Manifold Mixup
首先来看Manifold Mixup【1】。尽管【1】中给出了Manifold Mixup的不少理论分析,但是Manifold Mixup从实际的操作来看是很简单的。先假设有一个神经网络: T θ