Convolutional Neural Networks on Graphs with Fast Localized Spectral Filtering 论文阅读

Convolutional Neural Networks on Graphs with Fast Localized Spectral Filtering

Code link:https://github.com/mdeff/cnn_graph

 

目录

目录

1引言... 1

2 提出的方法... 1

2.1 学习快速定位谱过滤器... 2

2.2图的粗化... 3

3相关工作... 4

3.1 图信号处理... 4

3.2 在非欧式空间的cnn. 4

4 数字分析实验... 5

4.1 重访经典cnn在Mnist 数据集... 5

4.2 文本分类20news. 5

4.3 比较谱过滤器与计算效率... 6

4.4 图片质量的影响... 7

5 结论与未来的工作... 7

References. 8

 

 

摘要:我们的工作主要是在于从低纬规则化数据生成的CNN,(图片/视频/语音)转化到高纬度不规则区域,比如说社会社交网络/脑连接/词嵌入等通过图来表示;提出了一种基于谱图的CNN算法,为设计快速的卷积滤波器提供了必要的数学基础理论与数值分析;重要的是提出的算法与经典CNN具有相同的计算复杂度与恒定的学习复杂度,其通用于图结构,实验表明能够学习图的局部/统计/组成特征。

1引言

CNN【19】因其通过局部特征并汇聚其形成多尺度高纬信息在图像等领域取得突破,归因于卷积核抽取信息,可实现尺度的由大到小的转换;在用户数据网络/生物网络/远程日志信息网络/文档/词嵌入等领域的信息都是不规律非欧式域的,其都可以通过图来描述,存在异构的信息关系;对于图的几何框架的研究需要较强的数学理论比如说谱图理论【6】

卷积神经网络在图上的应用并不是直接的卷积与池化操作,无论是在理论与实践方面,定义图过滤器对评估与学习特征起到至关重要的作用 ,本文的贡献如下:

(1)、谱制定,基于图信号处理的谱图理论在图上CNN的应用【31】

(2)、定位过滤器,提出的谱过滤器是定位在以K为半径的球的【4】

(3)、低计算复杂度,计算复杂度是线性的;

(4)、高效的池化,提出的池化策略,将顶点重排为二叉树结构

(5)、实验结果,进行多组实验最终形成有用的模型,高效计算与精度与复杂度都优于之前的谱图CNN【4】,同样展示了谱图与经典CNN可达到同样的效果;

 

2 提出的方法

在图上的CNN需要三个步骤,(1)在图上的定位卷积滤波器的设计(2)相似顶点的放在一 起作粗化处理(3)对于空间高分辨率的图池化操作

2.1 学习快速定位谱过滤器

存在两种卷积策略,分别是空间与频谱的角度出发,通过对比,空间是提供卷积核,理论上行得通,但是面临匹配局部邻居节点的匹配挑战【4】,空间卷积并未有完整的数学定于;另一方面,【31】提供很好的卷积定位操作,卷积理论的定位作为线性在傅里叶上对角化的操作,然而图谱域的定位平移操作O(n)的乘法操作,可以通过对过滤器参数的选择来克服这些问题;

图傅里叶转化:

研究主要在无向连接图,g=(V , E ,W),v 顶点  E是边,W是节点之间的领矩阵,【6】图谱上的拉普拉斯的操作,其包含L=D-W D 是对角度矩阵,归一化拉普拉斯矩阵是L=In-D^-1/2WD-1/2  In是单位矩阵,L是实对称半正定矩阵,有正交向量对应非负奇异值;拉普拉斯是傅里叶基U={uo,u1…un-1},L =UAUT  A=diag{r0,r1…rn-1}, x=UT x ,x=Ux 在【31】中,如空间卷积一样,转化使得基本操作得以形成;

图信号的谱过滤器:

因为在顶点域不能表达有意义的转化操作,在图上的卷积攒机操作定义在傅里叶域x*g 

 

多项式参数应在定于卷积器:

无参数过滤器存在两个限制,不能在空间上定位,学习复杂度为O(n),使用多项式过滤器可以解决这个问题

 

参数Q是多项式系数向量,顶点j过滤器的值是顶点i,

,在【12 lemma 5.2】dg(I,j)>K  dg()是最短路径;例如两个顶点的最小表的数量,最后谱过滤器通过拉普拉斯的Kth 顺序的多项式,另外,学习复杂度为O(K),因此复杂度如同经典CNN

 

递归公式化快速过滤器:

展示k个参数的定位过滤器,因为傅里叶基的乘法器O(n),使用多项式可以运用,使得O(K|e|),使用多项式,使用信息化处理的核函数如小波函数【12】中,另外一个是the lanczos 算法【33】构建正交基,Kk(L ,x)=span{x,Lx,….Lk-1x} 独立的系数,然而其更复杂是未来的工作;

利用切比雪夫不等式,多项式形成正交基,希尔伯特空间的平方函数参考dyJ1-y2 

过滤器参数可以被截断k-1的顺序,切比雪夫参数是参数,可以写成

 

学习过滤器:

2.2图的粗化

池化操作需要有意义的领节点和相似的节点聚集,多尺度图保留几何特征,然后图上是NP-hard问题【5】,然而存在多种聚集算法,比如说谱聚类【21】,我们更注重的是每层的粗化相对于不同分辨率的数据域,并且聚类方法需要减少图的大小通过因子,在本文中利用graclus多层聚类算法粗化【9】,图代数多数方法【28】和kron 的减少【32】是两个值得探索的方法在未来的工作中;【9】,【16】使用贪心算法来计算连续的粗化缩小图谱聚类,其选择最小的减少【30】,匹配节点被探索,可以迅速的分成两类节点存在孤立点与非匹配点

2.3 图的快速池化

 

池化被反复执行多次很有效,在粗化后,输入的顶点其粗化的版本并不能进行有意义的方式排列,因此直接的使用池化不能保存所有匹配的节点,导致内存的低效率,并行计算很难实现,然而进行排列顶点可以变得高效,第一,建立平衡的二叉树第二重拍节点;粗化操作之后,每个节点有两个孩子节点,最后一层得到匹配,如果是孤立节点,有一个孩子节点,另一个是假节点;未连接的节点需要添加两个孤立节点作为还在节点,这种结构是平衡二叉树,规律的节点数量,孤立节点或者是孤立节点和一个假节点;假的节点需要跟随两个假节点;

假节点需要用中值来表示;因为假节点是人为的增加节点维度,所以说增加计算机代价,发现,实际上,通过Graclus算法遗留的孤立点很少,最粗的位置任意放置,传播到最后的层;常规程度上,邻节点被层次的融合在粗化的程度上,池化重新排列图信号;图2展示了整个过程量,这个规律的重排序使得操作更加高效复合并发框架;

 

3相关工作

3.1 图信号处理

图信号处理是搭建信号处理与谱图之间的理论【6,3,21】,谐波与图理论之间的联系,在规则与非规则的结构嵌入生成基础的信息分析操作,我们建议读者参考【31】来了解,标准的卷积、平移、过滤、膨胀、调制与下采样不可直接应用在图中,需要新的数学理论支持保存原有的直觉概念,在文中,【12,8,10】的作者重新看了小波变换图上的操作,进一步提出了金字塔转化【32。27】中,【34】【25】【26】在同时不同程度的重新定于,展示出初始化时概念的丢失,增强定位的原则

3.2 在非欧式空间的cnn

图神经网络框架【29】简化在【20】在欧式空间中设计嵌入每一个顶点使用rnn使用这向量作为分类与回归,通过设置转换函数代替神经网络的递归关系,向量变为s=f(x)=Wx,输出函数为x=g(s,x)=(s-Dx)+x=Lx+x 代替另一个神经网络;利用切比雪夫不等的k参数来达到K层GNN,进行非线性的图池化操作;我们的模型因此可以分析作为多层融合与节点局部操作。

在【11,7】的工作介绍了局部视野减少特征参数的数量,这种思想是基于特征相似的概念,比如是选择限制性的连接数量在连续的层上,然而模型参数的减少通过探索局部概念设想,并未探索固定性特征,比如说没有权重分享策略,【4】的作者使用空间的gcn,使用权重图来定义局部领节点并计算多尺度聚类,进行图的池化操作;包括空间的权重分析然而存在很多挑战,需要选择并有序化领节点,当具体到空间、时间其他的信息 会丢失;

空间CNN生成转换为3Dmesh,是低纬非欧尚空间的类别在【23】提出的,作者使用北极坐标来定于卷积在网格化块上,形成深度框架,容许不同的流行,达到3D识别效果;

第一个谱图cnn的形成在【4】提出,定义为

 

B是三次方样条,后一个是控制点向量,后一种策略是从图中学习图框架,应用在图片识别、文本分类与生物信息上【13】,方法并未取得关注因为其必要的乘法操作;尽管矩阵计算代价,需要拉普拉斯奇异值分解,需要两个乘法O(N的平方)进行前向与后向传播;另外依赖于傅里叶域的平滑,通过样条参数化进行顶点域的定位,其模型并未提供精确度控制,其很重要,我们重复利用这项工作并克服这些现在;

4 数字分析实验

我们参考非参数非定位的过滤器(2)作为非参数,提出的过滤器在(7)在【4】中 样条,切比雪夫过滤器(4),使用Graclus粗化算法在2.2介绍的并非【4】中的样条凝聚方法,目的是比较学习过滤器并非粗化算法;使用下面的术语描述实验详情:

FCk k个隐藏单元的全连接层;Pk 步长为k的池化层;GCk Ck k个特征图的卷积层  使用的激活函数为ReLU 最后使用的是softmax函数回归,损失函数使用cross—entropy  L2正则化,全连接层 最小batches 是S=100

4.1 重访经典cnn在Mnist 数据集

为了验证模型的性能,选择手写体识别数据集分类问题【19】,70000数字图片二维28*28,图模型,建立8-NN的图2-D栅格化图,产生976的顶点(28*28+192个假节点),边3198个,为了标准化,使用K-nn相似图刻画节点之间的的权重

 

数据的完整性检查很重要,有助于提取特征从二维图上,表1展示了模型的性能

 

差异可以解释通过谱过滤器等方向性自然纹理,比如边并不拥有方向,这是一种限制还是有事,取决于具体问题,应该对任何不变形问题进行验证,旋转不变性可以探索:第一 用于数据增强,第二用于学习旋转不变性特征,比如空间转变网络【14】,其他的解释缺乏实验支持,需要调查更好的初始化策略

LENET-5 like 网络结构,超参数来自下面的实验;https://www.tensorflow.org/versions/r0.8/tutorials/mnist/pros;dropoout =0.5 归一化权重5*10^-4,初始化学习率0.03  衰减率0.95  momentum0.9  过滤器为5*5 支持K=25 所有的训练是20 epochs

4.2 文本分类20news

 为了证明模型的通用性,应用在非结构数据上进行文本分类,数据集包含18856数据(11314 train  7532 test)20类的分类【15】,我们提出10000最普遍的词从93953个单词中,每个文本向量x使用词包模型,归一化;本文建立16-nn图 词到向量嵌入的表示【24】,其产生10000个顶点,132834个边,框架是GC32 k=25  表2 是结果,我们的模型并不比贝叶斯分类好在小数据集上,其更强大的性能需要更多的全连接网络

 

 

4.3 比较谱过滤器与计算效率

表3 显示了【4】提出参数化模型性能如非参数模型,需要 O(n)级参数。并且图4显示了验证精度与损失;

图3验证了模型的低计算复杂度,运行时间等,表4 展示相似的进行GPU运行的情况,展示了并行运算的能力

 

 

 

4.4 图片质量的影响

 

 

对于任何图,有关数据的局部性、平稳性和组合性的统计假设必须在所在的图上实现,因此学习过滤器的质量取决于图的质量,对于欧式空间的数据,在4.1讨论,展示了K-nn图足够恢复标准CNN的性能。我们注意到K的值并未对性能有较大的影响,我们见证了随机图的性能表现,表5 表达了使用随机图的性能;重要的是数据结构的丢失或者是卷积层不能提出有价值的信息特征

文本分类特征被看为一个词包,调查发现三个选择,每个词都对应着矩阵中的列,另一个方法使用 word2vec[24]嵌入每个词,或者使用预学习嵌入。对于大型数据集 最紧邻节点算法 使用,这就是用 LSHFores【2】在学习word2vec的嵌入,表6 强调框架图的重要性

 

5 结论与未来的工作

在本文中,我们介绍了有效的泛化CNN到使用GSP工具的图的数学与计算基础,实验表明模型抽取局部、平滑与统计特征,通过图卷积层,较于【4】的第一个谱图,更有效率,避免傅里叶基的使用,实验表面了更高的准确率,另外,我们解决了【13】提出的问题,第一 引入线性复杂度的模型,第二证明了图质量对性能的影响 第三验证模型的局部平稳性和合成性统计假设成立

未来的工作有两个方向,提出显得工具,两一方面探索通用模型的使用,可以整合其他数据;另一个方向是方法的合理行,【13】作为先锋的,改变图上的CNN学习的参数;

 

 

 

 

 

 

References
[1] Martín Abadi et al. TensorFlow: Large-Scale Machine Learning on Heterogeneous Distributed Systems.
2016.
[2] M. Bawa, T. Condie, and P. Ganesan. LSH Forest: Self-Tuning Indexes for Similarity Search. In
International Conference on World Wide Web, pages 651–660, 2005.
[3] M. Belkin and P. Niyogi. Towards a Theoretical Foundation for Laplacian-based Manifold Methods.
Journal of Computer and System Sciences, 74(8):1289–1308, 2008.
[4] J. Bruna, W. Zaremba, A. Szlam, and Y. LeCun. Spectral Networks and Deep Locally Connected Networks on Graphs. arXiv:1312.6203, 2013.
[5] T.N. Bui and C. Jones. Finding Good Approximate Vertex and Edge Partitions is NP-hard. Information
Processing Letters, 42(3):153–159, 1992.
[6] F. R. K. Chung. Spectral Graph Theory, volume 92. American Mathematical Society, 1997.
[7] A. Coates and A.Y. Ng. Selecting Receptive Fields in Deep Networks. In Neural Information Processing
Systems (NIPS), pages 2528–2536, 2011.
[8] R.R. Coifman and S. Lafon. Diffusion Maps. Applied and Computational Harmonic Analysis, 21(1):5–30,
2006.
[9] I. Dhillon, Y. Guan, and B. Kulis. Weighted Graph Cuts Without Eigenvectors: A Multilevel Approach.

IEEE Transactions on Pattern Analysis and Machine Intelligence (PAMI), 29(11):1944–1957, 2007.
[10] M. Gavish, B. Nadler, and R. Coifman. Multiscale Wavelets on Trees, Graphs and High Dimensional
Data: Theory and Applications to Semi Supervised Learning. In
International Conference on Machine
Learning (ICML), pages 367–374, 2010.
[11] K. Gregor and Y. LeCun. Emergence of Complex-like Cells in a Temporal Product Network with Local
Receptive Fields. In
arXiv:1006.0448, 2010.
[12] D. Hammond, P. Vandergheynst, and R. Gribonval. Wavelets on Graphs via Spectral Graph Theory.
Applied and Computational Harmonic Analysis, 30(2):129–150, 2011.
[13] M. Henaff, J. Bruna, and Y. LeCun. Deep Convolutional Networks on Graph-Structured Data.
arXiv:1506.05163, 2015.
[14] Max Jaderberg, Karen Simonyan, Andrew Zisserman, et al. Spatial transformer networks. In Advances
in Neural Information Processing Systems, pages 2017–2025, 2015.
[15] T. Joachims. A Probabilistic Analysis of the Rocchio Algorithm with TFIDF for Text Categorization.
Carnegie Mellon University, Computer Science Technical Report, CMU-CS-96-118, 1996.
[16] G. Karypis and V. Kumar. A Fast and High Quality Multilevel Scheme for Partitioning Irregular Graphs.
SIAM Journal on Scientific Computing (SISC), 20(1):359–392, 1998.
[17] D. Kingma and J. Ba. Adam: A Method for Stochastic Optimization. arXiv:1412.6980, 2014.
[18] Y. LeCun, Y. Bengio, and G. Hinton. Deep Learning. Nature, 521(7553):436–444, 2015.
[19] Y. LeCun, L. Bottou, Y. Bengio, and P. Haffner. Gradient-Based Learning Applied to Document Recognition. In Proceedings of the IEEE, 86(11), pages 2278–2324, 1998.
[20] Yujia Li, Daniel Tarlow, Marc Brockschmidt, and Richard Zemel. Gated Graph Sequence Neural Networks.
[21] U. Von Luxburg. A Tutorial on Spectral Clustering.
Statistics and Computing, 17(4):395–416, 2007.
[22] S. Mallat. A Wavelet Tour of Signal Processing. Academic press, 1999.
[23] Jonathan Masci, Davide Boscaini, Michael Bronstein, and Pierre Vandergheynst. Geodesic convolutional
neural networks on riemannian manifolds. In
Proceedings of the IEEE International Conference on
Computer Vision Workshops, pages 37–45, 2015.
[24] T. Mikolov, K. Chen, G. Corrado, and J. Dean. Estimation of Word Representations in Vector Space. In
International Conference on Learning Representations, 2013.
[25] B. Pasdeloup, R. Alami, V. Gripon, and M. Rabbat. Toward an Uncertainty Principle for Weighted Graphs.
In
Signal Processing Conference (EUSIPCO), pages 1496–1500, 2015.
[26] N. Perraudin, B. Ricaud, D. Shuman, and P. Vandergheynst. Global and Local Uncertainty Principles for
Signals on Graphs.
arXiv:1603.03030, 2016.
[27] I. Ram, M. Elad, and I. Cohen. Generalized Tree-based Wavelet Transform. IEEE Transactions on Signal
Processing,, 59(9):4199–4209, 2011.
[28] D. Ron, I. Safro, and A. Brandt. Relaxation-based Coarsening and Multiscale Graph Organization. SIAM
Iournal on Multiscale Modeling and Simulation, 9:407–423, 2011.
[29] F. Scarselli, M. Gori, A. C. Tsoi, M. Hagenbuchner, and G. Monfardini. The Graph Neural Network
Model. 20(1):61–80.
[30] J. Shi and J. Malik. Normalized Cuts and Image Segmentation.
IEEE Transactions on Pattern Analysis
and Machine Intelligence (PAMI), 22(8):888–905, 2000.
[31] D. Shuman, S. Narang, P. Frossard, A. Ortega, and P. Vandergheynst. The Emerging Field of Signal
Processing on Graphs: Extending High-Dimensional Data Analysis to Networks and other Irregular Domains.
IEEE Signal Processing Magazine, 30(3):83–98, 2013.
[32] D.I. Shuman, M.J. Faraji, and P. Vandergheynst. A Multiscale Pyramid Transform for Graph Signals.
IEEE Transactions on Signal Processing, 64(8):2119–2134, 2016.
[33] A. Susnjara, N. Perraudin, D. Kressner, and P. Vandergheynst. Accelerated Filtering on Graphs using
Lanczos Method.
preprint arXiv:1509.04537, 2015.
[34] M. Tsitsvero and S. Barbarossa. On the Degrees of Freedom of Signals on Graphs. In Signal Processing
Conference (EUSIPCO), pages 1506–1510, 2015.

  • 3
    点赞
  • 26
    收藏
    觉得还不错? 一键收藏
  • 3
    评论
### 回答1: 这句话的意思是,使用快速局部谱滤波在图上进行卷积神经网络。在这个过程中,图像被表示为一个图,节点表示像素,边表示它们之间的关系。然后使用谱滤波器来处理这些图像,以便更好地捕捉它们之间的关系。由于使用了快速局部谱滤波器,因此可以有效地减少计算量,并提高计算效率。 ### 回答2: 卷积神经网络(CNN)在计算机视觉领域中被广泛应用,而针对图像上的卷积运算也得到了很好的改进。但是,对于图结构数据,卷积操作却变得更加困难。近年来出现了一些新的关于卷积神经网络用于图结构数据的方法,如基于图卷积网络(GCN)等。本文要介绍的“convolutional neural networks on graphs with fast localized spectral filtering”,即基于图谱的局部快速滤波的卷积神经网络,是另一种针对图结构数据的卷积方法。 传统的CNN通常采用局部的、线性的滤波器来提取图像的空间特征。而对于图结构数据,由于图上两个节点之间的关系是任意的,以及节点的特征不一定是有序的,因此无法直接地应用局部的卷积操作。但是,与图结构数据相对应的,是一个特殊的函数——图谱,它提供了丰富的图结构信息。 图谱(即拉普拉斯矩阵)是一个对称的稀疏矩阵,反映了图结构和节点特征之间的关系。将图谱的特征值和特征向量作为滤波器,就可以将图上的卷积操作转化为图谱卷积的形式。尤其是,利用局部滤波器就可以实现对图上节点嵌入向量的快速计算。 该方法涉及到了图谱嵌入、拉普拉斯矩阵、小批量图谱卷积核的设计等方面的内容。其中,图谱嵌入是将图结构数据映射为一个低维向量表示的过程,具有降维和特征抽取的作用;拉普拉斯矩阵是反应了图结构的一类矩阵,与图谱嵌入有密切关系;在卷积核设计方面,考虑到图结构的多样性和规模,将设计小批量卷积核进行快速的局部卷积操作,以提高计算效率。 该方法的优点在于,可以处理任意结构的图像和非图像数据,并且具有较好的鲁棒性和泛化能力。是否可以进一步提高计算效率,仍需更多的研究来探索。 ### 回答3: 卷积神经网络是一种基于多层神经元的深度学习算法,被用于图像、文本和声音等领域。最近,学者们开始研究如何将卷积神经网络应用于图形数据,如社交网络、交通网络和化学分子。其中,卷积神经网络特别适合处理图形数据,因为它可以学习局部特征,并保持局部空间关系。因此,卷积神经网络在图形任务上取得了许多优秀成果。 然而,之前的卷积神经网络模型存在一些不足,比如缺乏设计可解释性、效率低下、过度拟合等。为了解决这些问题,一种新的基于谱滤波的图形卷积神经网络被提出,即convolutional neural networks on graphs with fast localized spectral filtering。 这种方法在卷积层引入了局部谱滤波器,能够提高模型的效率和可解释性。谱滤波器可以学习图形数据的空间结构特征,能够捕捉节点之间的相邻关系和密度。而局部谱滤波器则针对每个节点的邻居子图进行滤波,使模型能够更好地识别图形数据中的局部特征。 此外,该方法还能够解决过拟合问题。过拟合是神经网络经常遇到的问题,即模型在训练集上表现极佳,但在测试集上表现不佳。谱滤波器可以在输入数据中学习的特征不够显著时,利用图形数据的全局谱信息进行补充,并减少过拟合的发生。 总之,convolutional neural networks on graphs with fast localized spectral filtering是一种高效、可解释、稳定的图形卷积神经网络。此方法在实际应用中有很大的潜力,如社交网络分析、城市交通预测、生物学和化学分子分析等领域。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 3
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值