2019-ICML-Graph U-Nets

2019-ICML-Graph U-Nets


Paper: https://arxiv.org/abs/1905.05178
Code: https://github.com/HongyangGao/Graph-U-Nets

图U-Nets

作者将CNN上的U-Net运用到了图分类上,因为我们主题是图分类,就不对U-Net进行论述了,只对其中的gPool(图池化层)做相应分析,本篇论文提出Topk节点选择法,是所有Topk的祖先。作者采用了一个可训练的投影向量p,将所有节点特征投影到1D,对其执行Max,筛选节点。按照池化比例ratio(超参数, 0<ratio<1 )进行筛选,如下图是0.8,就可以得到新的邻接矩阵和特征矩阵了。之所以在1D上进行筛选,是因为我们保证了新图的联通性在节点之间是一致的。

实验

在表 1 中使用了三个基准数据集;这些是 Cora、Citeseer 和 Pubmed。这些数据集是引文网络,每个节点和每个边分别代表一个文档和一个引文。每个节点的特征向量是词袋表示,其维度由字典大小决定。

在表 2 中,从图分类任务中使用的常用基准中选择的相对较大的图数据集上评估作者方法。我们使用的蛋白质数据集包括 D&D和 PROTEINS,科学协作数据集 COLLAB 。


从表3结果中观察到,作者的 g-U-Nets 始终比其他网络获得更好的性能。对于为节点分类任务列出的基线值,它们是这些数据集上的最新技术水平。作者提出的模型由 GCN、gPool 和 gUnpool 层组成,不涉及更高级的图卷积层,如 GAT。与 GCN 直接比较时,该 g-U-Nets 在所有三个数据集上的性能分别显着提高了 2.9%、2.9% 和 0.6%。

从表4结果中观察到,作者提出的 gPool 方法在 D&D 和 PROTEINS 数据集上的性能优于 DiffPool 1.79% 和 1.43%。


表 5 表明具有和不具有 gPool 或 gUnpool 层的 g-U-Net 之间的比较结果。结果表明,在 Cora、Citeseer 和 Pubmed 数据集上,g-U-Nets 的性能优于没有 gPool 或 gUnpool 层的 g-U-Nets,分别为 2.3%、1.6% 和 0.5%。这些结果证明了 gPool 和 gUnpool 层对性能提升的贡献。

表 6 表明具有和不具有图形连接性增强的 g-U-Net 之间的比较结果。结果表明,缺少图连通性增强将导致所有三个数据集的性能持续下降。

表8表明,U-Net 模型中的 gPool 层仅增加了 0.12% 的额外参数,但可以将性能提升 2.3%。

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

发呆的比目鱼

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值