主要基于下面这篇综述的文章,对GNN有一个大概的总结
A Comprehensive Survey on Graph NeuralNetworks
一 GNN产生原因
一方面,深度学习可从欧氏空间数据中提取潜在表示,使得神经网络成功推动了模式识别和数据挖掘的研究,但在许多实际应用场景中的数据是从非欧式空间生成的,例如图数据。另一方面,机器学习算法的核心假设是实例彼此独立,而图数据是不规则的,图中每个节点通过一些复杂的链接信息与其邻居相关,这些信息可用于捕获节点间的相互依赖关系。因此,为了将深度学习方法应用到图数据领域,产生了图神经网络——GNN。
欧式空间就是二维空间、三维空间以及继承三维空间定理的N维空间。是一个有「内积」的线性空间,包括文本、音频、图像、视频等数据。这些数据有一个特点就是排列整齐。
非欧几里德结构排列不整齐,具体体现在:对于数据中的某个点,难以定义出其邻居节点,或者是不同节点的邻居节点的数量是不同的。
二 GNN发展
早期的研究属于递归图神经网络(RecGNN)类别。他们通过迭代传播邻居信息直到到达稳定的固定点来学习目标节点的表示。
之后受到CNN在计算机视觉领域成功的鼓舞,并行开发了许多重新定义图数据卷积概念的方法,这些方法以卷积图神经网络(ConvGNN)为基础。 ConvGNN分为两个主要流,基于频谱的方法和基于空间的方法。
三 GNN分类
综述中将GNN分为以下四类:
- RecGNNs(递归图神经网络 )
- ConvGNNs(卷积图神经网络)
- GAEs(图自编码器)
- STGNNs(时空图神经网络)
3.1 RecGNNs(Recurrent Graph Neural Networks)
递归图神经网络旨在学习具有递归神经体系结构的节点表示。 假设图中的节点不断与其邻居交换信息,直到达到稳定的平衡。这种消息传递的思想被基于空间的卷积图神经网络所继承。