图神经网络之GCN
写在前面
为什么要参加此次图神经网络7天培训营?之前报名参加了上期图像分割7日打卡营的课程,课程的安排由浅及,包括如何构建数据集、FCN等模型的构建,以及实战项目。专业的教师团队,能够带着像我这样的小白进行现场手撸代码。这次的课程虽然没有一点图神经网络基础,但是老师的详细耐心讲解也让我收获颇丰。
GCN VS 传统 CNN (Convolution 网络)
传统 Convolution 网络适用于常见的文本,图像这种规则的数据结构。然而现实生活场景中信息之间的结构大多数是不规则的,如用户购买商品这样一种复杂的结构传统的网络不再适用。而图像上的卷积操作,与图结构上的卷积操作,最大的一个区别就在于:
(1) 导出对于图像的像素点来说,它的周围像素点数量其实是固定的;
(2) 导出但是对于图而言,节点的邻居数量是不固定的。![万物皆可图](https://i-blog.csdnimg.cn/blog_migrate/6f003d7d1b68a065d8fdbca9f69dff8c.jpeg)
在图像上的二维卷积,其实质就是卷积核在二维图像滑窗操作,将卷积核的每个元素与被卷积图像对应位置相乘,再求和,得到一个新的结果。
GCN 理论
论文链接: link.
理论公式中各项的意义。
定义的叫Symmetric normalized Laplacian 拉普拉斯矩阵。很多GCN的论文中应用的是这种拉普拉斯矩阵。这个公式其实体现了:一个节点的度越大,那么它所包含的信息量就越小,从而对应的权值也就越小。图卷积网络将邻接矩阵的两边分别乘上了度矩阵,相当于给这个边加了权重。其实就是利用节点度的不同来调整信息量的大小。课堂上老师关于 边上的源节点,往目标节点发送特征——Send 以及目标节点对收到的特征进行聚合——Recv。进行了详细的介绍,在此不在赘述。详见课程地址链接: 百度Aistudio。但是老师关于为什么要用这种拉普拉斯矩阵,老师没有进行讲解,GCN的核心基于拉普拉斯矩阵的谱分解,文献中对于这部分内容没有讲解太多,初学者可能会遇到不少误区。课后自己阅读相关文章有了自己的理解