GNN Pooling(九):Structure-Feature based Graph Self-adaptive Pooling,WWW2020


文本一共有…九个作者,分别来自西安电子科技大学,Shanghai BNC,Murdoch University以及University of Western Australia。
本文提出了一种新的图自适应池化方法( GSAPool),其目的如下:(1)构建合理的池化图拓扑,同时考虑了图的结构和特征信息,在节点选择上提供了更高的准确性和客观性;(2)使合并的节点包含足够有效的图信息,在丢弃不重要节点之前对节点特征信息进行聚合;因此,被选中的节点包含来自邻居节点的信息,可以增强未被选中节点特征的使用。在四个不同数据集上的实验结果表明,我们的方法在图分类方面是有效的,并且优于现有的图池方法。

PROPOSED METHODS

池化的结构包含三部分:the structure-based topology learning (SBTL), the feature-based topology learning (FBTL), and the structure-feature topology learning (SFTL),如下图所示。
在这里插入图片描述
GSAPool的包括两部分:池拓扑学习和节点特征融合。SBTL和FBTL分别聚合结构上的特征(通过GCN)和本身特征的一个重要程度的筛选(MLP)。GCN如下:
在这里插入图片描述
或者也可以替换成其他的GNN架构:
在这里插入图片描述
然后,对SBTL和FBTL的结果进行一个加权求和。求和之后的结果进行top-k的筛选,作为池化之后的结果。
在这里插入图片描述
此外,为了使用未选择节点的信息,我们必须在丢弃节点之前对其特征进行聚合,也就是节点特征融合。在融合的时候考虑了多跳信息:
在这里插入图片描述
可以看到图中的abc分别代表无融合,1-hop和2-hop。本文评估了两种不同的聚合信息方式:GCNConv以及GAT。利用这些融合方法,所选择的节点可以携带来自邻近节点的特征信息。这样,池化结果可以很好地表示整个图。
为了比较公平,我们的实验采用SAGPool[20]的模型架构。所有的比较方法和我们的方法使用相同的架构。图3显示了模型架构的细节。
在这里插入图片描述

实验

还是先看数据集:
在这里插入图片描述
对于池化比率,使用了三个值:0.25、0.5和0.75。当池化比为0.25时,由于所选择的特征信息较少,池化方法的性能不是很好。当池化比为0.75时,由于图保留了过多的冗余信息,性能不太好。因此,最终取0.5作为池率。α是一个经验值,几个值被测试以找出最好的:
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
最后是可视化的效果,可以见到所提出的GSAPool的特征(在第二行)比SAGPool的特征(在第一行)更容易区分。
在这里插入图片描述

  • 0
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 1
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

五月的echo

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值