图神经网络的二阶池化:从节点表示中学习图的表示

本文提出了一种图神经网络的二阶池化方法,用于从节点表示中学习图的表示,增强了图池化的性能。双线性映射和注意力二阶池化被提出,后者还被扩展到层次图池化。实验证明,这种方法在图分类任务中表现出色。
摘要由CSDN通过智能技术生成


 

©PaperWeekly 原创 · 作者|石壮威

学校|南开大学硕士生

研究方向|机器学习、图神经网络

 

本文 [1] 提出图神经网络的二阶池化方法,用以从节点表示中学习图的表示。与现有的图池化方法相比,二阶池化能够通过二阶信息增强图池化的性能。本文提出了两种基于二阶池化的全局图池化方法:双线性映射与注意力二阶池化。此外,作者将注意力二阶池化推广到了层次图池化方法。作者在图分类任务进行了详细的实验,实验结果表明,该方法在图分类任务上表现优秀。

论文标题:

Second-Order Pooling for Graph Neural Networks

Arxiv地址:

https://arxiv.org/abs/2007.10467

IEEE官网地址:

https://ieeexplore.ieee.org/document/9104936

代码地址:

https://github.com/divelab/sopool


图池化

考虑一个图 G=(A,X),其中 A 和 X 分别表示邻接矩阵和特征矩阵,假设图的节点数为 n,节点特征维度为 d,那么 ,图神经网络(GNN)从通过图的拓扑结构和特征矩阵,为每个节点学习一个 f 维的表示。

而图池化,则是通过表示矩阵 H,为全图学习一个 c 维的特征向量。

其中 g 是图池化函数。池化函数 g 必须满足以下两个要求。

  1. 对于不同的图,节点数 n 是不同的,但 g 输出的向量维度应该固定,以适应分类器。

  2. 将 H 中不同行的顺序调换,应输出相同的

评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值