GNN Pooling
图神经网络的池化
五月的echo
神的孩子全跳舞
展开
-
GNN Pooling(十一):Edge Contraction Pooling for Graph Neural Networks,2019
本文的作者来自An-Institut Technische Universität München,本文至今好像还未正式发表。本文提出了EdgePool,其能够学习一个局部和稀疏的硬池变换,并自然地考虑到图结构,确保不会完全删除节点。EdgePool优于其他的池化方法,可以很容易地集成到大多数GNN模型中,并且在节点分类和图分类方面都提高了性能。EdgePoolEdge contraction为了实现边池,提出了一种Edge contraction的策略。引入新节点vev_eve和新边,使vev_原创 2020-09-06 16:03:04 · 1497 阅读 · 6 评论 -
GNN Pooling(十):MEMORY-BASED GRAPH NETWORKS,ICLR2020
目录MANN本文作者来自University of Toronto,Sharif University of Technology。本文提出了一种memory layer,借助multi-head array of memory keys和卷积算子,学习soft cluster assignment。不像是GCN依赖于local信息,memory layer依赖于全局信息,因此不用担心过平滑。根据memory layer为基础提出了两种不同的模型:memory-based GNN (MemGNN)以及g原创 2020-08-02 13:27:07 · 998 阅读 · 1 评论 -
GNN Pooling(九):Structure-Feature based Graph Self-adaptive Pooling,WWW2020
目录PROPOSED METHODS实验文本一共有…九个作者,分别来自西安电子科技大学,Shanghai BNC,Murdoch University以及University of Western Australia。本文提出了一种新的图自适应池化方法(GSAPool),其目的如下:(1)构建合理的池化图拓扑,同时考虑了图的结构和特征信息,在节点选择上提供了更高的准确性和客观性;(2)使合并的节点包含足够有效的图信息,在丢弃不重要节点之前对节点特征信息进行聚合;因此,被选中的节点包含来自邻居节点的信息,原创 2020-07-31 15:28:01 · 902 阅读 · 1 评论 -
GNN Pooling(八):STRUCTPOOL via CRF,ICLR2020
目录图模型三个马尔科夫性联合概率分布CRFReferences本文的作者来自Texas A&M University。大多数现有的图池技术没有显式地考虑图的结构信息,本文将图池看作是一个节点聚类问题,需要学习一个聚类分配矩阵。我们建议将其表示为一个结构化预测问题,并使用条件随机场来捕获不同节点分配之间的关系。使用CRF的直觉是这样的:给定节点的分配应该依赖于输入节点特性和其他节点的分配,而CRF正是通过无向图模型捕获不同节点分配之间的这种高阶结构关系。话说我一直傻傻分不太清楚无向图有向图概率图这原创 2020-07-30 14:44:02 · 923 阅读 · 1 评论 -
GNN Pooling(七):CLIQUE POOLING FOR GRAPH CLASSIFICATION,ICLR2019
本文作者来自于University of Cambridge,本文是一篇workshop,并且其内容也十分简单。本文提出了一种以clique(团)作为单元池的新型图池操作。由于这种方法是纯拓扑的,而不是特性的,它更容易解释,而且完全非参数化。该操作在图卷积网络(GCN)和GraphSAGE架构中实现,并通过标准图分类基准测试。此外,我们还探索了池化与规则图(像素图)的兼容性,演示了在使用我们的机制替换标准卷积神经网络(CNNs)中的2*2池化时具有竞争性的性能。Model话不多说,上图。clique原创 2020-07-17 19:50:17 · 642 阅读 · 3 评论 -
GNN Pooling(六):Graph Convolutional Networks with EigenPooling,KDD2019
目录1. EigenPool1.1 Graph CoarseningEigenvector-Based PoolingTHEORETICAL ANALYSIS OF EigenPoolingEXPERIMENT这真是我读过的最难的一篇图池化了。有些没有理解的地方等日后再来拾遗。本文作者来自Michigan State University,Pennsylvania State University以及IBM T. J. Watson Research Center。图池化把节点分组为子图(对应池化之后原创 2020-07-14 19:48:16 · 1290 阅读 · 0 评论 -
GNN Pooling(五):Self-Attention Graph Pooling,2019ICML
目录Graph PoolingMethodSelf-Attention Graph PoolingGraph Pooling本文的作者来自Korea University, Seoul, Korea。话说在《请回答1988里》首尔大学可是很难考的,韩国的高考比我们的要更激烈乃至残酷得多。本文提出了一种基于自注意的图池方法。使用图形卷积使我们的池化方法同时考虑节点特征和图形拓扑。为了确保公平的比较,对现有的池方法和我们的方法使用了相同的训练过程和模型架构。实验结果表明,该方法在参数合理的情况下,能够在基原创 2020-07-13 14:15:08 · 3074 阅读 · 7 评论 -
GNN Pooling(四):Hierarchical Graph Representation Learning with Differentiable Pooling,NIPS2018
目录Proposed MethodPreliminaries本文的作者们来自Stanford University,TU Dortmund University,University of Southern California。当前GNN架构的一个主要限制是,它们本质上是扁平的,因为它们只在图的边上传播信息,不能以分层的方式推断和聚合信息。因此本文提出了DIFFPOOL,一个可微的图池模块,可以适应各种图神经网络结构的层次和并以端到端方式进行训练。在池化的下采样过程中,DiffPool定义了一个模型来原创 2020-07-11 17:26:54 · 1036 阅读 · 0 评论 -
GNN Pooling(三):An End-to-End Deep Learning Architecture for Graph Classification,AAAI2018;以及图核
目录核,图核,图卷积核Deep Graph Convolutional Neural Network (DGCNN)Graph convolution layersConnection with Weisfeiler-Lehman subtree kernelConnection with propagation kernel未完待续......本文的作者来自Department of Computer Science and Engineering, Washington University in S原创 2020-07-03 19:36:57 · 4970 阅读 · 9 评论 -
GNN Pooling(二):Pointer Networks,NIPS2015;SEQUENCE TO SEQUENCE FOR SETS,ICLR,2016
Pointer Networks简称Ptr-Net,是在Seq2Seq的基础上进行的改进。对于Seq2Seq的任务,输入输出都是任意的,而对于一些实际的问题,输出的长度、内容严重依赖于输入(甚至就是从输入中选出一部分作为输出),为了解决这个问题,Ptr-Net被提出来。其本质就是对Self-Attention进行的简单改进,使用注意力作为指针来选择输入序列中的一个成员作为输出。本文也在三个常见的任务中证实了Ptr-Net的有效性。Ptr-Net也有着广泛的应用,比如文本摘要,比如图池化(Set2Set)。原创 2020-07-02 09:46:21 · 1672 阅读 · 3 评论 -
GNN Pooling(一):Graph U-Nets,ICML2019
本文的两位作者都来自TexasA&M University, TX, USA。看起来有些熟悉,果然是咱们之前读过的论文的作者:Learning Graph Pooling and Hybrid Convolutional Operations for Text Representations,WWW。并且,在池化过程中采用的基本思路是都差不都的。相比于图卷积的研究,针对于图池化的研究要少许多。本文提出了U-Nets,这是一种类似于Encoder-Decoder的操作,分为GPool和gUnpoo原创 2020-06-29 11:30:02 · 2312 阅读 · 6 评论