GNN Graph Pooling
文章平均质量分 95
专注于图神经网络领域的图分类方法
不务正业的土豆
知行合一 止于行善
展开
-
AttPool: Towards Hierarchical Feature Representation in Graph Convolutional Networks via Attention
文章目录1 背景介绍self-attention 和 masked attention的区别MotivationContributions2 方法2.1 卷积2.2 AttPool的PoolingGlobal attentionLocal Attention2.3 使用AttPool来进行层次化的图分类任务3 实验数据集参数设置实验结果每一个AttGCN层的分类准确率和其他Pooling方法的对比文中的分层预测的模型和传统的预测方式的对比Global Attention和Local Attention的对比原创 2021-01-10 18:03:02 · 1523 阅读 · 0 评论 -
SAGPool - Self-Attention Graph Pooling ICML 2019
文章目录1 相关介绍Motivation创新性背景知识self-attention 和 masked attention的区别2 相关工作基于拓扑的池化全局池化分层池化3 方法:Self-Attention Graph Pooling(SAGPool)3.1 基于self-attention的图池化方法:SAGPoolSelf-attention mask图池化SAGPool的变种 - 使用不同的GNNtorch_geometric据说是GNN的神器,这里面甚至封装了常用的GNN模型3.2 模型架构卷积层r原创 2021-01-07 22:03:04 · 1914 阅读 · 0 评论 -
TopK : Graph U-Nets [gPool gUnpool] 图分类 节点分类 ICML 2019
文章目录1 前言面临的问题需要了解的背景知识GCNU-Net网络向量投影和余弦相似度k-max pooling in CNNs本文贡献2 相关工作图卷积图池化3 Graph U-Nets3.1 Graph Pooling Layer:gPool (编码器层)3.2 Graph Unpooling Layer:gUnpool (解码器层)3.3 Graph U-Nets 整体架构3.4 Graph Connectivity Augmentation via Graph Power 通过图幂操作增加图的连接性原创 2021-01-07 21:56:45 · 2563 阅读 · 1 评论 -
EdgePool - Edge Contraction Pooling for Graph Neural Networks
文章目录EdgePoolChoosing edgesComputing new node featuresUnpooling EdgePool实验论文:Edge Contraction Pooling for Graph Neural Networks 利用边收缩来实现图池化作者:Diehl, Frederik and Brunner, Thomas and Le, Michael Truong and Knoll, Alois德国慕尼黑技术大学附属研究所来源:尚未发表,另一篇Towards Gr原创 2021-01-07 21:55:31 · 1827 阅读 · 0 评论 -
EigenPool - Graph Convolutional Networks with EigenPooling KDD 2019
文章目录1 前言2 图池化相关工作全局池化方法分层池化方法3 EigenPool基于硬分配的图坍缩(图粗化)基于特征向量的池化3 实验4 总结论文:Graph Convolutional Networks with EigenPooling作者:Yao Ma , Suhang Wang , Charu C. Aggarwal , Jiliang Tang密歇根州立大学,宾夕法尼亚州立大学来源:KDD 2019论文链接:Arxiv: https://arxiv.org/abs/1904.13107原创 2021-01-07 21:54:19 · 1303 阅读 · 0 评论 -
Towards Sparse Hierarchical Graph Classifiers
文章目录1 动机2 相关工作3 模型卷积层池化层readout层4 实验论文:Towards Sparse Hierarchical Graph Classifiers 稀疏层次图分类器的研究来源: NIPS 2018 Workshop论文链接:Arxiv: https://arxiv.org/abs/1811.012871 动机图表示学习的最新进展,主要是利用图卷积网络,对许多基于图的基准任务带来了实质性的改进。虽然新的学习节点embeddign的方法非常适合于节点分类和链接预测,但它们的原创 2021-01-07 21:52:51 · 651 阅读 · 0 评论 -
DIFFPOOL - Hierarchical Graph Representation Learning with Differentiable Pooling NIPS 2018
文章目录1 相关介绍相关概念背景介绍模型简介2 相关工作3 DIFFPOOL:可微的pooling方法3.1 问题定义图神经网络堆叠GNNs和pooling层3.2 通过学习聚类分配矩阵来进行可微的poolingQ1: 怎样学习聚类分配矩阵S?Q2: 假定聚类分配矩阵已存在,如何进行Pooling?Permutation invariance排列不变性3.3 Auxiliary Link Prediction Objective and Entropy Regularization4 实验数据集模型配置Ba原创 2021-01-07 21:49:27 · 1145 阅读 · 0 评论 -
SortPool (DGCNN) - An End-to-End Deep Learning Architecture for Graph Classification AAAI 2018
文章目录1 背景介绍图核方法DGCNN和WL和PK的关系2 Deep Graph Convolutional Neural Network (DGCNN) 深度图卷积神经网络图卷积层与Weisfeiler-Lehman subtree kernel的联系和propagation kernel的联系2.2 SortPooling 层2.3 Remaining layersDGCNN和PATCHY-SAN的对比3 实验4 小结论文:SortPool (DGCNN) - An End-to-End Deep L原创 2021-01-07 21:44:27 · 3347 阅读 · 2 评论 -
PATCHY-SAN - Learning Convolutional Neural Networks for Graphs ICML
文章目录1 背景2 PATCHY-SAN模型Node Sequence Selection - 根据节点排序选择要进行卷积的节点Neighborhood Assembly - 找到Node的领域,确定感受野Graph Normalization - 图规范化过程Convolutional Architecture - 卷积网络结构3 实验4 小结论文:Learning Convolutional Neural Networks for Graphs作者:Mathias Niepert, Mohamed原创 2021-01-07 21:38:29 · 1262 阅读 · 1 评论