邻居节点加权求和的矩阵表达:
A 和 H 的乘积其实就是把所有的邻居节点向量进行相加,如下图所示,表示A × H
邻接矩阵和特征属性相乘
A表示的是邻接矩阵,H表示的是4个节点,每个节点有一个5维的特征向量,将A 和H点乘会得到右边矩阵AH的结果,得到 A×H 之后再和 W训练参数相乘,最后经过激活函数 σ 就得到下一层4个节点的特征向量了。
融入中心节点自身特征属性:
A×H只获得了某个节点的邻居信息,而忽略了节点本身信息。为了解决这个问题,在邻接矩阵A中将对角线的值设为 1,即每个节点会指向自身,新的卷积公式如下:
融入自身节点的图卷积
上面的内容参考自:图神经网络:GCN原理学习笔记 - 简书
参考代码理解:
这是gcn中卷积层的定义,执行一次卷积,就执行一次公式: