图神经网络论文阅读(四) Large-Scale Learnable Graph Convolutional Networks, KDD2018

本文提出了一种名为LGCL的learnable graph convolutional layer,解决了图数据的卷积问题,通过选择最大特征值的k个节点进行1D CNN操作。还介绍了子图训练策略,以适应大规模图数据的内存和计算需求。实验表明,LGCL在节点分类和图分类任务上表现出色,并且子图训练有效地减少了计算时间。
摘要由CSDN通过智能技术生成

本文的三位作者来自华盛顿州立大学,同之前的几篇论文一样,本文也是旨在解决如何在非欧的graph中获得适用于广义卷积的子图结构,并提出模型learnable graph convolutional layer (LGCL)。LGCL根据值的排序,为每个特征自动选择固定数量的相邻节点,将图形数据转换成一维格式的网格状结构(在节点邻域矩阵上执行最大池化,得到top-k特征元素),从而可以对泛型图进行常规的卷积操作。同时,为了在大图上进行模型训练,提出了一种子图训练方法,以减少先前在图卷积上的方法所带来的过多的内存和计算资源需求。
将卷积应用到图数据上,主要需要克服两个挑战:邻居结点数量不固定;没有可以依赖的特征对邻居结点进行排序。这也是空域卷积模型都要面对的两个问题。

Model

首先,LGCL的逐层传播规则被表述为:
在这里插入图片描述
其中,A表示邻接矩阵,g(·)为选择k个最大结点的操作,将泛型图转换为网格状结构数据。c(·)代表1D的CNN操作。下面根据一个例子分别介绍g(·)和c(·)。
<

评论 4
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

五月的echo

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值