[ 文献阅读·综述 ] Deep Learning on Graphs: A Survey [1]
推荐理由:图神经网络的survey paper,在很多的领域展现出了独特的作用力,分别通过GRAPH RNN(图循环网络)、GCN(图卷积)、GRAPH AUTOENCODERS(图自编码器)、GRAPH REINFORCEMENT LEARNING(图强化学习模型)、GRAPH ADVERSARIAL METHODS(图对抗模型)等五个类型的模型进行阐述,可以让大家对图神经网络有一个整体的认识
1.Introduction
- 作为人工智能领域皇冠上的宝石,深度学习在声音、图像、自然语言等领域表现出了难以匹敌的优势。它从数据中抽取复杂的Patterns的能力令人印象深刻。
- 而图(Graphs)在生活当中处处可见,这里的图是指狭义上的图论中的图,它们代表着不同领域当中事物间的联系。从社会网络,到电子商务网络,到生物链或是交通网,处处都有它们的身影。
- 如何利用深度学习的方法去分析图数据,这几年引起了广泛关注。不过也面临着以下挑战:
- 图的不规则结构:这导致了它很难被泛化,一些数学方法也很难用在图上,比如卷积核池化操作,在图上很难直接操作。
- 图的异质性与多样性:一个图的不同边与节点可能有各种各样不同的类型和特性。heterogeneous或homogenous,weighted或unweighted, signed或unsigned。每个图的功能也相差甚远。有给节点分类的,有预测边的链接的,有预测点属性的,可谓是花样百出。
- 大比例图:大数据时代有大图,图的节点或边数甚至可以是百万或是十亿级别。
- 跨学科:图论涉及的学科那就多了,化学分子的结构是个典型的图,亚马逊雨林食物链也是个图,社会人际关系更是图论的图。化学分子结构图有时候目标函数和限制条件甚至是不可微的,这就得刷掉一大部分基于梯度训练的网络。
- 为了解决这些问题,这个领域的文章如雨后春笋一般冒了出来。
- 下图给出五大类图神经网络与相应的目标和功能
2.数学符号
- 图的表达: G = ( V , E ) G=(V, E) G=(V,E), V = { v 1 , … , v N } V=\left\{v_{1}, \ldots, v_{N}\right\} V={ v1,…,vN}是N个点的集合。 E ⊆ V × V E \subseteq V \times V E⊆V×V是M条边的集合, A ∈ R N × N \mathbf{A} \in \mathbb{R}^{N \times N} A∈RN×N代表领接矩阵。
- 图可以使有向无向、有权无权,且 A ( i , j ) ≥ 0 \mathbf{A}(i, j) \geq 0 A(i,j)≥0。
- F V \mathbf{F}^{V} FV代表节点的features, F E \mathbf{F}^{E} FE代表边的features。
- X 1 ⊙ X 2 \mathbf{X}_{1} \odot \mathbf{X}_{2} X1⊙X2本文中代表对应元素相乘。
- 无向图的拉普拉斯矩阵被定义为 L = D − A \mathbf{L}=\mathbf{D}-\mathbf{A} L=D−