本文的三位作者来自Texas A&M University。
本文为深度GNN的发展做出了以下贡献:
本文认为当前图卷积运算中表示变换与传播的过度耦合是影响算法性能的关键因素。将这两种操作解耦后,更深层次的图神经网络可用于从更大的接受域学习图节点表示。
在此基础上提出了深度自适应图神经网络(DAGNN)来自适应地吸收来自大接受域的信息。
Graph Convolution Operations
首先还是从本文的视角简单的介绍一下图神经网络中的算子,被分成了PROPAGATION和TRANSFORMATION两部分:
传播的过程是聚合邻域信息的过程,转化的过程是更新中心节点信息的过程。注意在GCN里,节点的信息被表示为:
在每一次的传播-转化的过程中,转化和传播都是一同(在同一个CNN-step中)进行的。这也就是本文所说的entanglement,它影响了图神经网络的表达。这和我们之前看到的论文都有着相同的直觉,比如APPNP,CNNII,GIN,都是将聚合与更新拆分开来,尽管原理可能和本文说的不一样,但是通过将两步操作解耦,确实提高了图神经网络的性能。