此篇博客是对中科院计算所沈华伟博士的图学习报告笔记。B站上有上传的视频:https://www.bilibili.com/video/av667610549/
目录
2.3 沈华伟团队Graph Wavelet Neural Network
3.3 GCN: Graph Convolution Network
3.4 GAT: Graph Attention Network
3.5 MoNet: A general framework for spatial methods
一、图学习基础
1.1 拉普拉斯矩阵
是图的度矩阵,
是图的邻接矩阵。图的拉普拉斯矩阵矩阵表示了图的导数,刻画了信号在图上的平滑程度。
普通形式的拉普拉斯矩阵:
矩阵元素为:
对称归一化的拉普拉斯矩阵(Symmetric normalized Laplacian)(最常用):
矩阵元素为:
随机游走归一化拉普拉斯矩阵(Random walk normalized Laplacian):
矩阵元素为:
无向图的拉普拉斯矩阵性质
(1)拉普拉斯矩阵是半正定矩阵。(最小特征值大于等于0)
(2)特征值中0出现的次数就是图连通区域的个数。
(3)最小特征值是0,因为拉普拉斯矩阵(普通形式: )每一行的和均为0,并且最小特征值对应的特征向量是每个值全为1的 向量;;
(4)最小非零特征值是图的代数连通度。
拉普拉斯矩阵特征分解:,
是列向量为拉普拉斯矩阵单位特征向量的矩阵。
1.2 拉普拉斯算子
拉普拉斯算子(Laplacian operator) 的物理意义是空间二阶导,准确定义是:标量梯度场中的散度,一般可用于描述物理量的流入流出。 比如说在二维空间中的温度传播规律,一般可以用拉普拉斯算子来描述。拉普拉斯矩阵也叫做离散的拉普拉斯算子。拉普拉斯算子是n维欧几里德空间中的一个二阶微分算子,定义为梯度∆f的散度∇ ⋅ ∇f 。因此如果f是二阶可微的实函数,则f的拉普拉斯算子∆定义为:。f的拉普拉斯算子也是笛卡尔坐标系
所有非混合二阶偏导数:
函数f的拉普拉斯算子也是该函数的海塞矩阵(是一个多元函数的二阶偏导数构成的方阵)的迹:
1.3 卷积
CNN等神经网络的成功原因之一就是能够学习到一些局部化的网络结构,在通过堆叠变成结构化的模式。这也得益于卷积的平移不变性。所以,图卷积神经网络就是把欧式空间拓展到非欧空间。在图上定义卷积,由于复杂网络的节点度的分布是重尾分布,节点的分布结构有很大的不同。所以早期的图神经网络的研究主要集中在如何定义图上的卷积和图上的池化操作上。卷积就是图上的信号处理。一维连续函数卷积运算: