首先决定看这篇论文是直接在知乎上搜索“图卷积”,看到的一篇总结:图神经网络综述:模型与应用 - 张俊的文章 - 知乎。这篇总结主要是总结了标题中这篇论文大概都介绍了什么,于是觉得这篇论文很有必要阅读。
1. Introduction
图神经网络的应用
图是一种数据结构,能够将物体及其关系建模为结点node和边edge得益于其强大的表示能力,图神经网络主要应用在以下几个方面:
- 社交网络
- 自然科学(生物系统,protein-protein interaction networks)
- 知识图谱
图神经网络的动机
- 第一个动机——卷积神经网络
卷积神经网络能够提取多尺度的局部空间特征,为机器学习领域带来很大的突破,但是卷积神经网络只作用在规则的欧几里得数据,比如1D序列,2D网格状数据。但是这些数据结构可以看做是图这种数据结构的一个实例,或者说一种特殊情况。卷积神经网络有以下几个特性:
- 稀疏链接(或者叫局部连接)
- 权重共享
- 多层叠加
(之前的博客中也有总结过卷积神经网络:《深度学习第九章》——阅读笔记)
这几特性在解决图领域的问题中也尤为重要: - 图是最典型的一种局部连接结构
- 权重共享同样可以减少计算量(这句太懂,谱域图理论不清楚:shared weights reduce the computational cost compared with traditional spectral graph theory [10].)
- 多层结构同样可以通过感受野的增大捕获不同尺度的特征
因此我们很容易就想到将应用于欧几里得空间的CNN泛化到非欧几里得图领域。然而正如图1中显示的,我们很难定义一个局部卷积核和池化操作:
-
第二个动机——graph embedding
什么是graph embedding呢?从字面上理解就是嵌入图。这应该是自然语言处理领域中的术语,我也不是很懂,就说说自己浅显的理解:
graph embedding是基于表示学习的一种方法,什么是表示学习呢?一本书上是这样说的:learning representations of the data that make it easier to extract useful information when building classifiers or other predictors。graph embedding
意思就是用图先将数据表示出来。
之前的一些graph embedding的方法有两个缺陷:- 参数不共享,造成计算量和结点个数成正比;
- 直接将图嵌入,缺乏泛化能力,无法处理动态图或者泛化为新的图。