2019-ICML-Graph U-Nets
Paper: https://arxiv.org/abs/1905.05178
Code: https://github.com/HongyangGao/Graph-U-Nets
图U-Nets
作者将CNN上的U-Net运用到了图分类上,因为我们主题是图分类,就不对U-Net进行论述了,只对其中的gPool(图池化层)做相应分析,本篇论文提出Topk节点选择法,是所有Topk的祖先。作者采用了一个可训练的投影向量p,将所有节点特征投影到1D,对其执行Max,筛选节点。按照池化比例ratio(超参数, 0<ratio<1 )进行筛选,如下图是0.8,就可以得到新的邻接矩阵和特征矩阵了。之所以在1D上进行筛选,是因为我们保证了新图的联通性在节点之间是一致的。
实验
在表 1 中使用了三个基准数据集;这些是 Cora、Citeseer 和 Pubmed。这些数据集是引文网络,每个节点和每个边分别代表一个文档和一个引文。每个节点的特征向量是词袋表示,其维度由字典大小决定。
在表 2 中,从图分类任务中使用的常用基准中选择的相对较大的图数据集上评估作者方法。我们使用的蛋白质数据集包括 D&D和 PROTEINS,科学协作数据集 COLLAB 。
从表3结果中观察到,作者的 g-U-Nets 始终比其他网络获得更好的性能。对于为节点分类任务列出的基线值,它们是这些数据集上的最新技术水平。作者提出的模型由 GCN、gPool 和 gUnpool 层组成,不涉及更高级的图卷积层,如 GAT。与 GCN 直接比较时,该 g-U-Nets 在所有三个数据集上的性能分别显着提高了 2.9%、2.9% 和 0.6%。
从表4结果中观察到,作者提出的 gPool 方法在 D&D 和 PROTEINS 数据集上的性能优于 DiffPool 1.79% 和 1.43%。
表 5 表明具有和不具有 gPool 或 gUnpool 层的 g-U-Net 之间的比较结果。结果表明,在 Cora、Citeseer 和 Pubmed 数据集上,g-U-Nets 的性能优于没有 gPool 或 gUnpool 层的 g-U-Nets,分别为 2.3%、1.6% 和 0.5%。这些结果证明了 gPool 和 gUnpool 层对性能提升的贡献。
表 6 表明具有和不具有图形连接性增强的 g-U-Net 之间的比较结果。结果表明,缺少图连通性增强将导致所有三个数据集的性能持续下降。
表8表明,U-Net 模型中的 gPool 层仅增加了 0.12% 的额外参数,但可以将性能提升 2.3%。