【论文阅读-SAGPool】Self-Attention Graph Pooling

论文地址:https://arxiv.org/abs/1904.08082
代码地址:https://github.com/inyeoplee77/SAGPool
来源:ICML 2019

本篇论文主要是改变了Topk的得分方式,也是本文的创新之处。作者认为以往的得分函数过于简单,没有考虑到图的拓扑信息,认为谱域卷积同时考虑了图的拓扑信息和节点信息,故用谱域卷积的注意力来替换。其他部分基本是参考Graph U-Net论文提出的方法。

模型架构

在这里插入图片描述
图2左图是全局池化结构,右图是分层池化结构。
全局池化结构由三个图卷积层组成,每层的输出被连接起来。节点特征在池化层之后的readout层中聚合。然后将图的特征表示传递到线性层进行分类。
分层池化架构由三个模块组成,每个模块由一个图卷积层和一个图池化层组成。每个模块的输出经过readout层后,相加再将结果输入到线性层进行分类。代码给出了分层池化架构

代码逻辑

在这里插入图片描述

卷积层

在该层可选择各种类型的图卷积,我们将Kipf&Welling提出的广泛使用的图卷积用于所有模型。

卷积层

自注意力图池化层

SAGPool结构图
自注意力机制被广泛的应用于最近

  • 6
    点赞
  • 17
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值