[ 文献阅读·图神经网络 ] Learning Convolutional Neural Networks for Graphs [1]
推荐理由:本文考虑两个问题,一是训练一个可以用于未知图的函数,让未知图可以有效进行分类和回归问题求解。二是用于对未知图的特性进行预测(如点或边的缺失)。
1.摘要&简介
- 本文的目的在于建立一种用于表达有向图或无向图的框架。
- 如果要理解图神经网络的卷积,那就得先理解传统的卷积神经网络CNN。如图1所示,从图卷积的角度去看,CNN就像是一个遍历所有节点,然后固定每个点近邻数量的图神经网络(每个像素节点固定有8个近邻,这效率高么?似乎不高。):
- 在NLP当中同样有类似的问题,比如Skip-Gram和Cbow的窗口一旦固定,预测的信息来源也只有前后两个近邻:
- 但有没有考虑过这样一个问题,在图像识别的过程中,人眼、鼻、口的位置关系基本是差不多的,但在像素点上,他们距离太远,在像素序列上距离更远,举个例子,眼睛的一个像素点,周围的像素可能只有眼睛和皮肤,除非一个人五官挤在一起,那几乎不可能在眼睛像素点的近邻中出现鼻子的像素点。
- 这种隐形关系的缺失,导致了图信息的缺失。
- 在NLP问题中,这样的Graph信息缺失同样也很严重,比如:“我今天忘记带猫咪去打疫苗了。”在这句话中“我”和“猫咪”是主人和宠物的关系,但如果窗口大小为前后各2,那“我”字能“看见”的前后信息,只有“今天”和“忘记”,则主人和宠物这种人类看似很直觉的联系,就被排除在语义之外。(这个例子其实很粗,博主自己想的,大家近似理解一下就好)
- 所以,图卷积这种“近邻数量自由”、“关系表达丰富”、“节点通信自由”的数据结构就能够从一定程度上解决隐形信息缺失的问题。
- 本文提出的方法名叫PATCHY-SAN,力求解决以下两个问题:
- 确定一种或多种节点序列,并用它们创建邻域图;
- 计算邻域图的归一化,即,从图表示到向量空间表示的唯一映射。
- 图2展示了PATCHY-SAN的结构:
2.PATCHY-SAN的相关概念
- 标记:本文定义了一个函数 ℓ \ell ℓ用于节点的rank排序,也就是说将所有的节点映射为一个序列 V → S V \rightarrow S V→S,当 ℓ ( u ) > ℓ ( v ) \ell(u)>\ell(v) ℓ(u)>ℓ(v)时rank有 r ( u ) < r ( v ) \mathbf{r}(u)<\mathbf{r}(v) r(u)<r