一文读懂简化的图卷积网络GCN(SGC)| ICML 2019

点击上方,选择星标置顶,每天给你送干货

阅读大概需要19分钟

跟随小博主,每天进步一丢丢

作者 | yyl424525

来源 | CSDN博客

编辑 | AI科技大本营

文章目录

1 相关介绍

1.1 Simple Graph Convolution (SGC)提出的背景

1.2 SGC效果

2 Simple Graph Convolution 简化的图卷积

2.1 符号定义

2.2 图卷积网络GCN

  • GCN vs MLP

  • Feature propagation 特征传播

  • Feature transformation and nonlinear transition

  • 分类器

2.3 简化的图卷积SGC

  • 线性化

  • 逻辑回归

  • 优化细节

3 谱分析

3.1 在图上的初步做法

3.2 SGC and Low-Pass Filtering 简化的图卷积和低通滤波器

4 相关工作

4.1 图神经网络

4.2 其他在图上的工作

graph embedding methods

5 实验结果

5.1 Citation Networks & Social Networks

  • Performance

  • Efficiency

5.2 下游任务

Text classification

Semi-supervised user geolocation

Relation extraction

Zero-shot image classification

Graph classification

论文:Simplifying Graph Convolutional Networks 简化的图卷积网络GCN(SGC)

作者:Felix Wu, Tianyi Zhang, Amauri Holanda de Souza Jr., Christopher Fifty, Tao Yu, Kilian Q. Weinberger

来源:ICML 2019

论文链接:

https://arxiv.org/abs/1902.07153v1

Github代码链接:

https://github.com/Tiiiger/SGC

GCN在学习图的表示方面已经引起了广泛的关注,应用也非常广泛。GCNs的灵感主要来自最近的一些深度学习方法,因此可能会继承不必要的复杂度和冗余计算。文中通过反复消除GCN层之间的非线性并将得到的函数折叠成一个线性变换来减少GCNs的额外复杂度。并从理论上分析了得到的线性模型SGC,并证明了SGC相当于一个固定的低通道滤波器和一个线性分类器。实验结果表明,这些简化不会对许多下游应用的准确性产生负面影响。此外,得到的SGC模型可扩展到更大的数据集,并且比FastGCN产生两个数量级的加速。

1 相关介绍

1.1 Simple Graph Convolution (SGC)提出的背景

传统的机器学习方法的复杂度变化趋势都是从简单到复杂。例如从线性Perceptron到非线性MLP,从简单的线性图片filters到CNN都是这个趋势。GCN也是源于传统的机器学习方法,继承了这个复杂度的变化。此文的目的就是要把非线性的GCN转化成一个简单的线性模型SGC,通过反复消除GCN层之间的非线性并将得到的函数折叠成一个线性变换来减少GCNs的额外复杂度。

SGC中的特征提取等价在每个特征的维度上应用了单个固定的filter。

1.2 SGC效果

实验表明

  • 这种简化了的线性SGC模型在很多任务上比GCN和一些其他GNN网络更高效,并且参数更少

  • 并且在效率方面,在Reddit数据集上比FastGCN快两个数量级

  • SGC在文本分类、用户地理定位、关系提取和zero-shot图像分类任务方面,即使不能超越基于GCN的方法,但至少也是竞争对手

2 Simple Graph Convolution 简化的图卷积

2.1 符号定义

数据集中只知道部分节点的标签,目标是预测未知的节点的标签。

2.2 图卷积网络GCN

GCN vs MLP

GCNs和MLPs相似,都是通过多层网络学习一个节点的特征向量Xi,然后再把这个学到的特征向量送入的一个线性分类器中进行分类任务。一个k层GCN与k 层MLP在应用于图中每个节点的特征向量Xi是相同的,不同之处在于每个节点的隐藏表示在每一层的输入时是取的它的邻居的平均。

每个图中的卷积层和节点表示都是使用三个策略来更新

  • 特征传播

  • 线性转换

  • 逐点非线性激活

Feature propagation 特征传播

GCN的特征传播是区别MLP的,因为每一层的输入都是节点局部邻居的平均值:

(2)

用一个简单的矩阵运算来表示公式(2)的更新:

(3)

  • S表示添加自循环“normalized”的邻接矩阵(实际上并没有归一化)

  • A˜=A+1是A \mathbf{A}A的度矩阵

  • D˜是A的度矩阵

用公式(2)对所有节点进行同时更新,得到了一个简单的稀疏矩阵乘法:

 (4)

这一步平滑了沿着图的边的局部隐藏表示,并最终支持在局部连接的节点之间进行类似的预测。

Feature transformation and nonlinear transition

在局部平滑之后,一个GCN层就等于一个标准的MLP。每一个层对应一个可学习的权重矩阵,所以平滑处理了的隐藏特征表示是线性转换的(后面乘一个参数矩阵是线性的)。最后在逐节点应用一个非线性激活函数,例如ReLU就可以得到输出的特征表示

(5)

分类器

对于节点分类任务,最后一层和MLP相似,都是使用一个softmax分类器预测节点的标签,一个K KK层的GCN的所有节点的类别预测可以写作:

(6)

2.3 简化的图卷积SGC

在传统的MLP中,层数变深加强了网络的表达能力,因为它允许创建特征的层次结构,例如,第二层的特征构建在第一层特征的基础上。在GCNs中,每一层都有一个重要的函数:在每一层中,隐藏的表示在1跳距离的邻居之间求平均值。这意味着在k kk层之后,一个节点从图中所有k kk跳的节点处获得特征信息。这种效果类似于卷积神经网络,深度增加了内部特征的感受野。虽然卷积网络可以在层数加深时提升性能(Deep networks with stochastic depth, 2016),但通常MLP的深度只限于为3至4层。

线性化

假设GCN层之间的非线性不是最关键的,最关键的是局部邻居的平均聚合操作。因此,考虑删除每层之间的非线性转换函数(如ReLU),只保留最终的softmax(以获得概率输出)。得到的模型是线性的

(7)

简化如下

(8)

 这个简化的版本就叫做Simple Graph Convolution (SGC)。

逻辑回归

公式(8)给了SGC的一个自然直观的解释:SGC由两部分组成

  • 一个固定的(没有参数,parameter-free)的特征提取器(或平滑器smoothing component)

  • 特征提取器后是一个线性逻辑回归分类器

可以看出,由于计算不需要权值,因此可以把这部分计算作为特征的预处理步骤,整个模型的训练可以直接简化为对预处理特征的多类逻辑回归。

优化细节

逻辑回归的训练是一个凸优化问题,可以用任何有效的二阶方法或随机梯度下降法进行执行(Large-scale machine learning with stochastic gradient descent,2010)。在图连通模式足够稀疏的情况下,SGD可以很自然地运用在非常大的图上,SGC的训练比GCN快得多。

3 谱分析

文中从图卷积的角度来研究SGC,并证明了SGC在图谱域上对于应一个固定的滤波器。此外,还证明了在原始图上添加自循环,即renormalization trick,可以有效地缩小底层图的谱。在这个缩放的谱域上,SGC充当一个低通滤波器,在图上生成平滑的特征。因此,邻居节点倾向于共享相似的表示,从而实现预测。

3.1 在图上的初步做法

经过傅里叶变换的信号x和滤波器g的GCN卷积操作为

(11)

推导过程可以看GCN原始论文:Semi-Supervised Classification with Graph Convolutional Networks用图卷积进行半监督分类

最后,通过将卷积推广到d dd维的通道输入中的多个滤波器上,并在每一层之间用非线性激活函数的分层模型,就得到了如公式(5)所定义的GCN传播规则

(5)

3.2 SGC and Low-Pass Filtering 简化的图卷积和低通滤波器

定理1

对于一个简单,没有孤立节点的无向图。令分别是对称归一化的拉普拉斯矩阵 的最小和最大的特征值。的最小和最大的特征值。则有

(12)

关于定理1的证明,可参考文中提供的附录部分。

从定理1可以看出,当γ>0 \gamma>0γ>0时,相当于图中添加了自循环,则归一化的拉普拉斯矩阵的最大特征值会变小。

图2描述了在Cora数据集上使用的三种情况下特征值(频率)的变化和滤波器系数(谱系数)的变化关系

4 相关工作

4.1 图神经网络

  • Spectral networks and locally connected networks on graphs,ICML 2014-首次提出了一个扩展到图上的基于谱图理论的CNN网络

  • Convolutional neural networks on graphs with fast localized spectral filtering,NIPS 2016-通过使用切比雪夫多项式近似消除了拉普拉斯矩阵分解带来的巨大的计算开销,定义了图卷积

  • Semi-supervised classification with graph convolutional networks,ICLR 2017-通过使用预先定义的传播矩阵S SS进行一阶切比雪夫近似,极大的降低了图卷积的计算,正式提出GCN

  • Inductive representation learning on large graphs(GraphSAGE),NIPS 2017-Hamilton等人提出了一个inductive的图卷积,使用固定邻居size采样,然后进行邻居特征聚合

  • Diffusion-convolutional neural networks,NIPS 2016;;NGCN: Multi-scale graph convolution for semi-supervised node classification,2018;Lanczosnet: Multi-scale deep graph convolutional networks,ICLR 2019-利用多尺度信息,将邻接矩阵S SS提升到更高的阶

  • How powerful are graph neural networks?,ICLR 2019-研究L图神经网络对任意两个图的区分能力,并引入图同构网络,证明其与图同构的Weisfeiler-Lehman检验同样强大

  • Predict then propagate: Graph neural networks meet personalized pagerank,ICLR 2019-利用神经网络和个性化随机游走将非线性变换与传播分离

  • Attention-based graph neural network for semisupervised learning,2018-提出了基于注意力机制的GCN

  • A simple yet effective baseline for non-attribute graph classification,2018-提出了一种有效的基于节点度统计信息进行图分类的线性baseline

  • Bootstrapped graph diffusions: Exposing the power of nonlinearity,2018-结果表明,使用线性特征/标签传播步骤的模型可以从自训练策略中提升效果

  • Label efficient semi-supervised learning via graph filtering,CVPR 2019-提出了一种广义的标签传播,并提供了一个类似谱分析的renormalization trick

  • Graph Attention Networks,ICLR 2018;Attention-based graph neural network for semisupervised learning,2018;Gaan: Gated attention networks for learning on large and spatiotemporal graphs,2018;Rethinking knowledge graph propagation for zero-shot learning,2018-这些基于注意力机制的模型为不同的边分配了权重,但是注意力机制也带来了内存的使用和巨大的计算开销

  • 一篇基于图上的注意力模型的综述文章:Attention models in graphs: A survey,2018

4.2 其他在图上的工作

在图上的方法可分为两类:graph embedding methods和graph laplacian regularization methods。

graph embedding methods

  • DeepWalk:它依赖于截断的随机游走,并使用一种skip-gram来生成节点表示

  • Deep Graph Infomax (DGI),2019:用非监督策略学习图的节点表示,DGI通过最大化相互信息来训练一个图形卷积编码器

5 实验结果

5.1 Citation Networks & Social Networks

  • 表2中,可以看出SGC和GCN的性能相当,并且在Citeseer数据集上比GCN高1%。性能提升的原因可能是由于SGC的参数更少较少了过拟合GCN中的过拟合的情况。

  • GIN中就有严重的过拟合。

  • LNet and AdaLNet在引文网络上不稳定。

  • 表3是在Reddit社交网络数据集上的实验。

  • SGC比基于GCN的变种GraphSAGE和FastGCN高1%。

  • DGI论文中表示随机初始化的DGI编码器的性能几乎与经过训练的编码器的性能相匹配;然而,这两种模型在Reddit上的表现都不如SGC。这个结果可能表明,额外的权重和非线性激活在DGI编码器中是多余的。

Efficiency

  • 图3是在Pubmed和Reddit数据集上的效率对比图

  • 显然,SGC是效率最高的

  • SGC中是预先计算的,SGC训练的时候只需要学习一个权重矩阵Θ,减少了内存的使用。

  • 由于S通常是稀疏的,而K通常比较小,因此,可以用稀疏稠密矩阵乘法进行计算

  • 无法在Reddit上对GaAN和DGI的训练时间进行基准测试,因为实验没有发布

  • GPU:NVIDIA GTX 1080 Ti

  • 在大图上由于内存要求不能进行GCN的训练。FastGCN和GraphSAGE等方法使用采样的方法减少邻居数量来处理这个问题。Deep Graph InfoMax(ICLR,2019)通过限制模型的size来解决这个问题

  • SGC训练的时候比使用快速采样的FastGCN快两个数量级,并且性能几乎没有损失

5.2 下游任务

使用5个下游任务来研究SGC的适应性:

  • text classification

  • semi-supervised user geolocation

  • relation extraction

  • zero-shot image classification

  • graph classification

Text classification

  • (Graph convolutional networks for text classification,2019)使用2层的GCN来实现了一个state-of-the-art的结果,创建了一个语料库图,该图将文档和单词都视为图中的节点。

  • Word-word边的权值为点信息的互信息(point twise mutual information, PMI), word-document边的权值为标准化的TF-IDF socre。

  • 如表4显示,一个SGC (K = 2)在5个基准数据集上与他们的模型竞争,同时达到了83.6倍的速度。

Semi-supervised user geolocation

  • 半监督用户地理定位(Semi-supervised user geolocation)根据用户发布的帖子、用户之间的关系以及少数被标记的用户,来定位用户在社交媒体上的“家”的位置。

  • 表5显示,SGC在GEOTEXT、TWITTERUS和TWITTER-WORLD 的高速公路连接方面优于GCN,同时在TWITTER-WORLD上节省了30多个小时。

Relation extraction

  • 关系抽取包括预测句子中主语和宾语之间的关系。

  • C-GCN采用LSTM,后面接着GCN和MLP层。实验将GCN替换为SGC (K = 2)将得到的模型称为C-SGC

Zero-shot image classification

  • zero-shot image分类包括学习一个图像分类器,不需要从测试类别中获取任何图像或标签。

  • GCNZ使用GCN将类别名称映射到图像特征域,并查找与查询图像特征向量最相似的类别 - 表7显示,使用MLP替换GCN,然后使用SGC可以提高性能,同时将参数数量减少55%。

  • 为了将预先训练好的GloVe向量映射到由ResNet-50提取的视觉特征空间,需要一个MLP特征提取器。

  • 同样,这个下游应用证明了学习图卷积滤波器是多余的。

Graph classification

图分类要求模型使用图结构对图进行分类。

(How powerful are graph neural networks?,ICLR 2019)从理论上证明了GCNs不足以区分特定的图结构,并证明了GIN更具表现力,在各种图分类数据集上获得了 state-of-the-art的结果。

将DCGCN中的GCN替换为SGC,分别获得NCI1和COLLAB数据集上的71.0%和76.2%,这与GCN相当,但远远落后于GIN。

在QM8量子化学数据集上,更高级的AdaLNet和LNet在QM8上得到0.01MAE,远远超过SGC的0.03 MAE。

原文:

https://blog.csdn.net/yyl424525/article/details/102576875

 


方便交流学习,备注:昵称-学校(公司)-方向,进入DL&NLP交流群。

方向有很多:机器学习、深度学习,python,情感分析、意见挖掘、句法分析、机器翻译、人机对话、知识图谱、语音识别等。

记得备注呦

推荐阅读:

【ACL 2019】腾讯AI Lab解读三大前沿方向及20篇入选论文

【一分钟论文】IJCAI2019 | Self-attentive Biaffine Dependency  Parsing

【一分钟论文】 NAACL2019-使用感知句法词表示的句法增强神经机器翻译

【一分钟论文】Semi-supervised Sequence Learning半监督序列学习

【一分钟论文】Deep Biaffine Attention for Neural Dependency Parsing

详解Transition-based Dependency parser基于转移的依存句法解析器

经验 | 初入NLP领域的一些小建议

学术 | 如何写一篇合格的NLP论文

干货 | 那些高产的学者都是怎样工作的?

一个简单有效的联合模型

近年来NLP在法律领域的相关研究工作


让更多的人知道你“在看”

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值