本文链接:https://blog.csdn.net/jdzwanghao/article/details/90543293
Multi-layer Graph Convolutional Network (GCN) with first-order filters.
1、图卷积要干什么?
图卷积神经网络主要要完成的就是这件事,给定一个图网络,把节点(node)(又称顶点(vertex))与 边(edge)输入进一个函数f,希望得到一个各个节点的feature信息,利用这个feature去实现各种任务(比如分类)。如图1所示。
图1 图卷积神经网络的输入输出
其中,
x 表示输入特征矩阵,形状为 N*D,N是节点的个数,D是每个节点的特征向量维度);
Z 表示输出特征矩阵,形状为 N*F,N是节点的个数,F是每个节点的特征向量维度);
2、图卷积神经网络的结构是什么?
图卷积神经网络最核心的就是下面这个公式。
公式1 图卷积神经网络前向传播公式
在这个公式中可以看到,输入与输出是分别由A、H(l) 和 H(L+1) 构成,那么他们是什么呢?与图1中的 X 和 Z 有什么关系呢?
H(l) 实际上是图卷积神经网络的隐藏层,Z 表示隐藏层的层数。当 H(0)=X, 把这个公 H(l)=Z 时,公式1就变成图1的特例就变成了 Z=f(X,A)。实际上图卷积神经网络就是在输入 X 与输出 Z 之间插入了大量隐藏层 H(l) 构成。如图2所示。
A 是图网络中的邻接矩阵。
图2 前向传播示意图
到这里就明白了图卷积神经网络的前向传播
3、节点的前向传播
我们用一个最简单的 f 函数来具体说明图卷积神经网络中具体每个节点是如何前向传播的。同时,还要说明图卷积神经网络要更新的 学习参数 是什么?
公式2 一个f的最简单函数
公式2中,ceita 是非线性函数比如ReLU; w(l) 是第 Z 层的学习参数。
将公式2代入到公式1中,并将 H(l) 分开看,就是具体每个节点的传播方法。下面是关键公式。
公式3 每个节点的前向传播
其中,vi 指的是图中第 i 个节点;cij 表示归一化系数。 这个公式最大的特点是说,图中每个节点的特征是在其他节点特征的共同作用下更新的。即:
参考文献汇总
1、GCN作者官方教程。