【Graph Neural Network 图神经网络】2.Spectral-based Graph Convolutional Networks 基于谱域的图卷积网络

本文深入探讨了基于谱域的图卷积网络(GCN),从图卷积网络的基础理论出发,介绍了谱域理论,包括拉普拉斯矩阵、傅里叶变换和卷积。接着讲解了Spectral CNN、ChebNet以及GCN的发展,特别是GCN在谱图卷积、层级线性模型和半监督节点分类的应用。GCN通过多层传播规则,能够处理图结构数据,适用于节点分类任务。
摘要由CSDN通过智能技术生成

一、图卷积网络(GCN)

卷积图神经网络(GCN,图卷积网络)与递归图神经网络关系密切。与使用收缩约束迭代节点状态不同,ConvGNNs在架构上使用具有固定数量的不同卷积层来处理循环相互依赖,下图说明了这一关键区别。由于图卷积与其他神经网络的融合更加高效方便,近年来它的普及率迅速提高。
RecGNNs v.s. ConvGNNs
GCN可分为两类,基于谱域Spectral的和空间Spatial的。基于谱域的方法从图信号处理的角度引入滤波器来定义图卷积,其中图卷积运算被解释为从图信号中去除噪声。而基于空间的方法继承了RecGNNs的思想,通过信息传播来定义图卷积。
本文主要介绍基于谱域的图卷积网络。
image vs graph


二、谱域理论基础

这一节内容主要参考https://www.zhihu.com/question/54504471/answer/332657604,在此简略阐述一遍。
一句话总结基于谱域的图卷积:对节点特征 f f f进行傅里叶变换后,生成以拉普拉斯矩阵的特征向量为基的谱图,然后依据卷积定理求得卷积核 g g g f f f卷积后提取的特征。

0. 基本概念

G = ( V , E ) G=(V,E) G=(V,E)表示, V V V中元素为节点(vertex), E E E中元素为边(edge)。按照边是否有指向性分为有向图和无向图,按照边是否有权值分为有权图和无权图。
度矩阵 D D D表示对角阵,对角上的元素为各个节点的度。顶点 v i v_i vi的度表示和该顶点相关联的边的数量。
邻接矩阵 A A A表示节点间的连接关系,是n阶方阵(n为节点数量)。无向图邻接矩阵是对称矩阵,而有向图的邻接矩阵不一定对称。无权图的邻接矩阵由0和1组成,有权图会依据权值变化。

1. 拉普拉斯矩阵(Laplacian)

常用的拉普拉斯矩阵有三种,这里用到了前两种,分别是标准和归一化后的形态:

  1. Combinatorial Laplacian: L = D − A L=D-A L=DA
  2. Symmetric normalized Laplacian: L s y s = D − 1 2 L D − 1 2 L_{sys}=D^{-\frac{1}{2}}LD^{-\frac{1}{2}} Lsys=D21LD21
    laplacian
    为什么要用拉普拉斯矩阵?因为它是半正定对称矩阵,可以进行特征分解,且一定有 n n n个线性无关相互正交的特征向量,构成的矩阵 U U U为正交矩阵,满足 U U T = E UU^T=E UUT=E,所以有:
    L = U ( λ 1 ⋱ λ n ) U − 1 = U ( λ 1 ⋱ λ n ) U T L=U\begin{pmatrix}\lambda_1\\&\ddots\\&&\lambda_n\end{pmatrix}U^{-1}=U\begin{pmatrix}\lambda_1\\&\ddots\\&&\lambda_n\end{pmatrix}U^T L=Uλ1λnU1=Uλ1λnUT

2. 傅里叶变换(Fourier Transform)

传统的傅里叶变换定义为:
F ( w ) = ϝ [ f ( t ) ] = ∫ f ( t ) e − i w t d t F(w)=\digamma[f(t)]={\int}f(t)e^{-iwt}dt F(w)=ϝ[f(t)]=f(t)eiwtdt其中 e − i w t e^{-iwt} eiwt是信号 f ( t ) f(t) f(t)的基函数,也是拉普拉斯算子的特征函数。
fourier
如何把传统的傅里叶变换以及卷积迁移到图上?核心工作就是把 e − i w t e^{-iwt} eiwt类推为图对应的拉普拉斯矩阵的特征向量。
传统傅里叶变换是连续形式的,在处理图时用到的是傅里叶变换的离散形式。由于拉普拉斯矩阵进行特征分解以后,可以得到 n n n个线性无关的特征向量,构成空间中的一组正交基,因此归一化拉普拉斯矩阵算子的特征向量构成了图傅里叶变换的基。图傅里叶变换将输入图的信号投影到了正交空间,相当于把图上定义的任意向量,表示成了拉普拉斯矩阵特征向量的线性组合。
由此定义图上的傅里叶变换:
F ( λ l ) = f ^ ( λ l ) = ∑ i = 1 N f ( i ) u l ( i ) F(\lambda_l)=\hat{f}(\lambda_l)=\sum_{i=1}^Nf(i)u_l(i) F(λl)=f^(λl)=i=1Nf(i)ul(i)其中,是 f f f是图上的 N N N维向量, f ( i ) f(i) f(i)表示图中某个节点的特征, u l ( i ) u_l(i) ul(i)表示第 l l l个特征向量的第 i i i个分量,那么特征值(频率) λ l \lambda_l λl下的, f f f的图傅里叶变换就是与 λ l \lambda_l λl对应的特征向量 u l u_l ul进行内积运算。
利用矩阵乘法将Graph上的傅里叶变换推广到矩阵形式: f ^ = U T f \hat{f}=U^Tf f^=UTf
同理,传统的傅里叶逆变换是对频率 w w w求积分: ϝ − 1 [ F ( w ) ] = − 1 2 Π ∫ F ( w ) e − i w t d w \digamma^{-1}[F(w)]=-\frac{1}{2\Pi}{\int}F(w)e^{-iwt}dw ϝ1[F(w)]=2Π1F(w)eiwtdw迁移到Graph上变为对特征值 λ l \lambda_l λl求和:
f ( i ) = ∑ l = 1 N f ^ ( λ l ) u l ( i ) f(i)=\sum_{l=1}^N\hat{f}(\lambda_l)u_l(i) f(i)=l=1Nf^(λl)ul(i)利用矩阵乘法将图上的傅里叶逆变换推广到矩阵形式:
f = U f ^ f=U\hat{f} f=Uf^

3. 卷积

卷积定理:函数卷积的傅里叶变换是函数傅立叶变换的乘积,即对于函数 f ( t ) f(t) f(t) g ( t ) g(t) g(t)两者的卷积是其函数傅立叶变换乘积的逆变换:
f ∗ g = ϝ − 1 ( ϝ ( f ) ⋅ ϝ ( g ) ) f*g=\digamma^{-1}(\digamma(f)\cdot\digamma(g)) fg=ϝ1(ϝ(f)ϝ(g))结合前文关于图傅里叶变换和逆变换的定义有:
f ∗ g = U ( ( U T f ) ⋅ ( U T g ) ) f*g=U((U^Tf)\cdot(U^Tg)) fg=U((UTf)(

  • 2
    点赞
  • 13
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值