图神经网络之GCN

写在前面

为什么要参加此次图神经网络7天培训营?之前报名参加了上期图像分割7日打卡营的课程,课程的安排由浅及,包括如何构建数据集、FCN等模型的构建,以及实战项目。专业的教师团队,能够带着像我这样的小白进行现场手撸代码。这次的课程虽然没有一点图神经网络基础,但是老师的详细耐心讲解也让我收获颇丰。

GCN VS 传统 CNN (Convolution 网络)

传统 Convolution 网络适用于常见的文本,图像这种规则的数据结构。然而现实生活场景中信息之间的结构大多数是不规则的,如用户购买商品这样一种复杂的结构传统的网络不再适用。而图像上的卷积操作,与图结构上的卷积操作,最大的一个区别就在于:

(1) 导出对于图像的像素点来说,它的周围像素点数量其实是固定的;

(2) 导出但是对于图而言,节点的邻居数量是不固定的。万物皆可图

在图像上的二维卷积,其实质就是卷积核在二维图像滑窗操作,将卷积核的每个元素与被卷积图像对应位置相乘,再求和,得到一个新的结果。

二维图片数据

适用于一维文本

GCN 理论

论文链接: link.

在这里插入图片描述
理论公式中各项的意义。
在这里插入图片描述
在这里插入图片描述定义的叫Symmetric normalized Laplacian 拉普拉斯矩阵。很多GCN的论文中应用的是这种拉普拉斯矩阵。这个公式其实体现了:一个节点的度越大,那么它所包含的信息量就越小,从而对应的权值也就越小。图卷积网络将邻接矩阵的两边分别乘上了度矩阵,相当于给这个边加了权重。其实就是利用节点度的不同来调整信息量的大小。课堂上老师关于 边上的源节点,往目标节点发送特征——Send 以及目标节点对收到的特征进行聚合——Recv。进行了详细的介绍,在此不在赘述。详见课程地址链接: 百度Aistudio。但是老师关于为什么要用这种拉普拉斯矩阵,老师没有进行讲解,GCN的核心基于拉普拉斯矩阵的谱分解,文献中对于这部分内容没有讲解太多,初学者可能会遇到不少误区。课后自己阅读相关文章有了自己的理解

(1)拉普拉斯矩阵是对称矩阵可以进行谱分解(特征分解)
(2)拉普拉斯矩阵只在中心顶点和一阶相连的顶点上(1-hop neighbor)有非0元素,其余之处均为0)
(3)通过拉普拉斯算子与拉普拉斯矩阵进行类比
  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值