图数据分析到图卷积神经网络

图数据(0,1板块)

目录:
0、引入
1、图数据

  1.1 何为图数据
  1.2 图相关的理论铺垫
        1.2.1    线性代数——从矩阵的乘法到以特征向量为基的线性变换
        1.2.2    谱图理论
  1.3 图数据应用——谱聚类
        第1板块 总结

2、图卷积神经网络综述
3、图卷积神经网络的实践

0.引入——卷积神经网络到图数据

\qquad 卷积神经网络的发展极大促进了深度学习的发展,广泛应用于图像识别和自然语言处理领域,卷积神经网络几乎能做到将很多问题毕其功于一役,以下特点可谓功不可没:
1、利用平移不变性抽取局部的特征——局部不变性
2、通过多层的卷积来实现低级到高级抽象特征的抽取
3、权重共享,降低训练成本
\qquad 卷积神经网络已经为很多种数据类型的深度学习任务,诸如图像、文本等领域带来了飞跃式的发展,而机器学习中一类广泛而特殊的数据——图数据,具备典型的局部连接特征,人们开始思考卷积神经网络应用于此可行性。

1.图数据

1.1 何为图数据

\qquad 重点是节点、边、邻接矩阵、度矩阵、拉普拉斯矩阵的概念
\qquad 何谓图?图由节点和边构成,节点和边都带有自己的特征信息。下面是大头之前做过的一个国际贸易额可视化图:
在这里插入图片描述

\qquad 图数据主要包含以下构成:

  • 节点的特征数据 X k × n X_{k\times n} Xk×n,假设有 n n n个节点,不妨记为 X k × n = [ x 1 , x 2 , x 3 . . . x n ] T X_{k\times n}=[x_1,x_2,x_3...x_n]^T Xk×n=[x1,x2,x3...xn]T,其中 x i x_i xi为来自节点 i i i k k k维特征, x i = [ x i , 1 , x i , 2 . . . x i , k ] x_i=[x_{i,1},x_{i,2}...x_{i,k}] xi=[xi,1,xi,2...xi,k]。看图来说,节点数据可以是国家进出口贸易总额、国家GDP、国家人口数等等
  • 节点的邻居关系。对于无向图来说,邻接矩阵由 A n × n A_{n\times n} An×n表示, A i , j = 1 A_{i,j}=1 Ai,j=1,表示节点 i i i j j j之间存在边连接,反之 A i , j = 0 A_{i,j}=0 Ai,j=0表示两点之间无连接。看图来说,就是两个国家之间是否有贸易往来。
  • 节点之间的关系信息。常见于含权重的邻接矩阵,此处我们单独定义节点之间关系权重矩阵 W n × n W_{n\times n} Wn×n,权重矩阵描述的是边的特征信息。看图来说可以是国家之间的进出口贸易额, W C N , U S A W_{CN,USA} WCN,USA表示中美贸易额。
  • 节点的度信息。用矩阵 D D D表示,这是一个对角阵。对于无向图来说,第 i i i个节点节点与 d i d_i di节点相连,那么其节点的度就是 d i d_i di d i = ∑ j n A i , j d_i=\sum_{j}^n A_{i,j} di=jnAi,j
  • 节点的加权度信息,用矩阵 D w D_w Dw表示,也是对角阵, D w ( i , i ) = ∑ j n A i , j D_{w(i,i)}=\sum_{j}^n A_{i,j} Dw(i,i)=jnAi,j
    \qquad 图数据具有典型的局部连接结构,适用于抽取多尺度的局部特征,再组合成具有强表示能力的特征。但是图数据由于其本身特性,传统的CNN的卷积核并不适用,主要原因是图数据不具备规则的欧几里得空间结构,节点之间不具备稳定的局部位置关系。类比图片随着节点index排序的变化,相同的图会呈现完全迥异的欧几里得空间结构,并且每个节点周围的邻居节点数也是不一样的,因此直接的CNN到GCN是无法迁移的。

1.2 图相关的理论铺垫

1.2.1 线性代数——从矩阵的乘法到以特征向量为基的线性变换

\qquad 首先从矩阵的乘法说起,我一直是这样理解一个矩阵的乘法的,无论是矩阵还是向量左乘以一个矩阵 B B B时候,其结果都是以矩阵 B B B的列向量作为基(或者坐标轴),以右乘的对象作为坐标,在这组基张成的线性空间里构造一个对象。以我们常见的向量为例,向量 x x x并不只是单纯的一个向量 x x x,而是 I x Ix Ix,其中 I I I是规模合适的单位阵,也就是说我们的向量 x x x是某个不露面的向量在基于单位矩阵列向量这组正交基下的一组坐标。
\qquad 更进一步,做给定矩阵 A A A,规模合适的列向量 x x x,我们令 y = A x y=Ax y=Ax,其实基于上文所述,可改写为 I y = A x Iy=Ax Iy=Ax,关于这个矩阵乘法,可以理解为我们在矩阵 A A A的列向量作为基,以向量 x x x各维度标量的数值作为坐标,生成的线性空间中的对象,该对象在单位矩阵列向量的正交基下的坐标表示为 y y y
\qquad 再进一步,对于一个向量 x x x,其本质上是某个线性空间的对象在单位矩阵正交基下的坐标表示,那么我们如何将这个对象转化为以某个可逆矩阵 P P P为基下的坐标表示呢?下面填空题就来了: x = P ( ? ? ) x=P(??) x=P(?),答案是 P − 1 x P^{-1}x P1x,如果一个向量在单位矩阵为基下的坐标表示为 x x x,那么其在 P P P的列向量为基之下的坐标表示就为: P − 1 x P^{-1}x P1x。如果这个矩阵 P P P恰好是一个正交阵,那么自然有 P − 1 x = P T x P^{-1}x=P^Tx P1x=PTx,某向量在单位矩阵为基下的坐标表示 x x x,那其在正交阵 P P P下的表示为 P T x P^Tx PTx.
\qquad 举个不是那么雅观的例子,线性空间里面的某个对象,就像是现实中的一头猪,猪的坐标就像是我们在给猪拍照,猪的官方照——也就是这个线性空间的对象在单位矩阵为基下的坐标表示,是最常用的也是约定俗成的即 P i g = I P i g Pig=IPig Pig=IPig,然后我们可以调整镜头,在不同的坐标系下去看这头猪,拍下形色各异的照片,但是猪就是这一头猪,不管在什么样的视角——矩阵左乘,拍出什么样的照片——该组基下的坐标,这头猪都是同一头猪,从头到尾都是这一头猪—— I y = A x = B z = . . . Iy=Ax=Bz=... Iy=Ax=Bz=...
\qquad 基于以上叙述,让我们再换一个更深入的视角来重新审视矩阵的乘法,矩阵乘法带来了什么样的线性变换。我们针对一个可以特征对角化的矩阵 A A A来说, A = S Λ S − 1 A=S\Lambda {S^{-1} } A=SΛS1,矩阵乘法 A x Ax Ax可以通过特征对角化分解为: A x = S Λ S − 1 x Ax=S\Lambda {S^{-1} }x Ax=SΛS1x,据前文所述, S − 1 x {S^{-1}}x S1x是将单位阵为基下向量的坐标 x x x基变换到了矩阵 S S S之下的坐标,随后我们通过特征对角阵 Λ \Lambda Λ对基变换后的坐标逐个维度根据矩阵 A A A的特征值做了拉伸,拉伸过后的坐标,依旧是在矩阵 S S S为基下的坐标,最后我们左乘矩阵 S S S,将拉伸后的坐标基变换到单位矩阵坐标系下。至此我们将某个矩阵乘以一个向量分解为:

  • S − 1 x {S^{-1}}x S1x——基变换到坐标系S下
  • Λ S − 1 x \Lambda {S^{-1}}x ΛS1x——新坐标系下的坐标根据矩阵 A A A特征值逐维度做拉伸
  • S Λ S − 1 x S\Lambda {S^{-1} }x SΛS1x——逐维度拉伸后再将拉伸后坐标转移回单位阵坐标系下
    \qquad 由此我们可以看到,左乘以某个矩阵,作为一个线性变换,对变换的对象做了如上的一些操作,这里我们需要注意,只是更换坐标系是不会从本质上对变换对象产生影响的——换个角度去看猪,猪还是那头猪,真正对变换对象产生影响的是特征对角阵 Λ \Lambda Λ。这里我们不妨把特征对角阵 Λ \Lambda Λ换成一个单位矩阵 I I I,言外之意是我们对基变换后的向量各维度不做拉伸保持原样,变换如下:
    S I S − 1 x = S S − 1 x = x SI {S^{-1} }x=S {S^{-1} }x=x SIS1x=SS1x=x
    \qquad 向量 x x x看破一切地表示,我还是原来那个我,只要你不拉伸,左乘的矩阵的特征对角阵 Λ \Lambda Λ是个单位阵,那经历这个变换后,注定还是那个我。这也暗含了一个讯息:如果一个矩阵 A A A的特征值全为1,那么这个矩阵必然为单位阵,即 A = I A=I A=I
    \qquad 最后我们来探讨一个问题,如果一个向量多次左乘同一个矩阵回来带什么样的效果?
    A k x = ( S Λ S − 1 ) k x A^{k}x=(S\Lambda {S^{-1} })^{k}x Akx=(SΛS1)kx
    = S Λ k S − 1 x =S\Lambda^{k} {S^{-1} }x =SΛkS1x
    \qquad 可见当k趋于无穷时,若矩阵 A A A的最大特征值 ≥ 1 \geq 1 1 A k x A^{k}x Akx会无限趋近于矩阵 A A A最大特征值的特征向量方向,其他方向的拉伸相较于最大特征向量方向的拉伸将会不值一提。这也很明白的解释了在马尔科夫转移阵里面,如果存在一个稳定状态,那么稳定状态也一定是马尔科夫阵最大特征值得特征向量方向。
    \qquad
1.2.2 谱图理论

(1)矩阵的乘法意味着线性变化,节点特征向量左乘以邻接矩阵、拉普拉斯矩阵都意味对节点特征进行怎样的变换?
\qquad 由于我们在进行图卷积神经网络相关的分析时候,面对的对象都是诸如邻接矩阵、度矩阵、拉普拉斯矩阵等,因此在介绍图卷积神经网络之前,先对谱图理论展开介绍。
\qquad 首先,对于一个无向图 G G G,节点数据为 x = [ x 1 , x 2 . . . x n ] T x=[x_1,x_2...x_n]^T x=[x1,x2...xn]T,度矩阵 D D D,邻接矩阵 A A A,邻接矩阵和度矩阵满足关系
D ( i , i ) = ∑ j n A ( i , j ) D_{(i,i)}=\sum_{j}^n A_{(i,j)} D(i,i)=jnA(i,j)
\qquad 定义拉普拉斯矩阵 L L L满足 L = D − A L=D-A L=DA
\qquad 节点数据左乘邻接矩阵或者是拉普拉斯矩阵,都是在做将节点邻居的数据汇总到中心节点的变换。具体来看,对于标准化后的邻接矩阵:
A ∗ = D − 1 A A^*=D^{-1}A A=D1A
A ∗ x ( i ) = ∑ j n A ( i , j ) D ( i , i ) x j A^*x_{(i)}=\sum_{j}^n \frac{A_{(i,j)}}{D_{(i,i)}}x_j Ax(i)=jnD(i,i)A(i,j)xj
\qquad 即经过左乘邻接矩阵,将节点数据 x ( i ) x_{(i)} x(i)更新为与节点 i i i相连的节点的数据的平均值。对于标准化后的拉普拉斯矩阵,拉普拉斯矩阵的标准化,常用的标准化方法有两种,一种是对称标准化 L ∗ = D − 1 2 L D − 1 2 = I − D − 1 2 A D − 1 2 L^*=D^{-\frac{1}{2}}LD^{-\frac{1}{2}}=I-D^{-\frac{1}{2}}AD^{-\frac{1}{2}} L=D21LD21=ID21AD21,另一类是做成度矩阵的逆来做标准化 L ∗ = D − 1 L = I − D − 1 A L^*=D^{-1}L=I-D^{-1}A L=D1L=ID1A。此处我们采取第一种标准化,有:
L ∗ x ( i ) = ∑ j n A ( i , j ) D ( i , i ) ( x ( i ) − x ( j ) ) L^*x_{(i)}=\sum_{j}^n\frac{A_{(i,j)}}{D_{(i,i)}}(x_{(i)}-x_{(j)}) Lx(i)=jnD(i,i)A(i,j)(x(i)x(j))
= x ( i ) − ∑ j n A ( i , j ) D ( i , i ) x ( j ) =x_{(i)}-\sum_{j}^n\frac{A_{(i,j)}}{D_{(i,i)}}x{(j)} =x(i)jnD(i,i)A(i,j)x(j)
\qquad 即经过左乘拉普拉斯矩阵,将节点数据 x ( i ) x_{(i)} x(i)更新为中心节点和周围节点的加权平均差异。这也是在拉普拉斯算子用于图像分割的主要原理,图像上的拉普拉斯算子是围绕中心节点和周围节点的二阶差分,如果中心节点和周围节点和差异很大,这意味着中心节点位于不同的色块的交界处。
\qquad
\qquad
\qquad
(2)拉普拉斯矩阵的谱分解
\qquad 这里的谱分解是从信号角度去理解拉普拉斯矩阵,就其本质就是对拉普拉斯矩阵做特征对角化,特征向量类比信号处理中的频率,是某个基,类似小波基、傅里叶基等;特征值就是频谱,反映了这个频率或者基的重要性程度,绝对值最大的特征值的绝对值就是矩阵的谱半径。这些都是很直观的概念,只是换了个说法。
\qquad 关于拉普拉斯矩阵的特征值,对于标准化以后的拉普拉斯矩阵 L L L,将其特征值从小到大排序, λ 1 ≤ λ 2 ≤ . . . ≤ λ n \lambda_1 \leq \lambda_2 \leq ... \leq \lambda_n λ1λ2...λn,则有:
1. λ 1 = 0 \lambda_1=0 λ1=0,拉普拉斯矩阵满足半正定性
[证明] λ 1 = 0 \lambda_1=0 λ1=0意味着拉普拉斯矩阵是半正定的,对任意向量 f ∈ R n f\in \mathbb{R}^n fRn,满足:
f t L f = 1 2 ∑ i , j n A i , j D ( i , i ) ( f i − f j ) 2 f^tLf={{1}\over{2}}\sum_{i,j}^n\frac{A_{i,j}}{D_{(i,i)}}(f_i-f_j)^2 ftLf=21i,jnD(i,i)Ai,j(fifj)2
\qquad\qquad 由二次型的非负性,易得半正定性。且由拉普拉斯矩阵满足:
L [ 1 , 1 , 1...1 ] T = I [ 1 , 1 , 1...1 ] T − D − 1 A [ 1 , 1 , 1...1 ] T L[1,1,1...1]^T=I[1,1,1...1]^T-D^{-1}A[1,1,1...1]^T L[1,1,1...1]T=I[1,1,1...1]TD1A[1,1,1...1]T
= [ 1 − ∑ j n A ( 1 , j ) D ( 1 , 1 ) , 1 − ∑ j n A ( 2 , j ) D ( 2 , 2 ) . . . 1 − ∑ j n A ( n , j ) D ( n , n ) ] T =[1-\sum_{j}^n\frac{A_{(1,j)}}{D_{(1,1)}},1-\sum_{j}^n\frac{A_{(2,j)}}{D_{(2,2)}}...1-\sum_{j}^n\frac{A_{(n,j)}}{D_{(n,n)}}]^T =[1jnD(1,1)A(1,j),1jnD(2,2)A(2,j)...1jnD(n,n)A(n,j)]T
= 0 ⋅ [ 1 , 1 , 1...1 ] T =0\cdot [1,1,1...1]^T =0[1,1,1...1]T
\qquad\qquad 易得拉普拉斯矩阵存在一个特征向量[1,1,1…1]^T,其对应的特征值为0,即拉普拉斯矩阵最小的特征值 λ 1 = 1 \lambda_1=1 λ1=1

  1. λ k = 0 \lambda_k=0 λk=0当且仅当图 G G G有k个联通区域,特征值为零的数量对应着联通区域的数量。此处不加证明地说明,拉普拉斯矩阵具有k重0特征值的时候,说明图中有k个独立的联通分量,0特征值对应的特征向量即为各个联通分量的节点组合,例如 [ 0 , 0 , 0 , 1 , 0 , 1 , 1 ] T [0,0,0,1,0,1,1]^T [0,0,0,1,0,1,1]T该特征值意味着第4,6,7个节点彼此联通且不和其他节点联通
1.3 图数据应用——谱聚类

\qquad 在介绍过谱图理论的基本内容之后,我们来看一些应用的内容,在无向图上基于拉普拉斯矩阵的谱聚类。

1. 聚类的两种思路

\qquad 聚类方法一般有两种思路:

  • 样本点在空间中的距离,根据节点的特征取值,即节点在特征空间中的位置进行聚类,例如k-means,层次聚类,GMM(高斯混合模型),SOM(自组织映射神经网络)等,其定义的等距离关系都是一个高维空间的低维球面。
  • 节点之间的关系强度,可以不必给出节点在特征空间的位置,只依据节点之间的关系(距离)来实现聚类,这类聚类以谱聚类为代表。
    \qquad 基于空间重点的位置的第一种思路只能处理特征空间中的凸集,基于节点之间的关系的聚类方法却没有这个限制,在数据的适用性上更广泛一些,下面两幅图片分别是特征空间的凸集数据和非凸集数据,谱聚类的方法两种情况下都会适用。
    在这里插入图片描述
    在这里插入图片描述

注:其实这里我们还会有一类思路,我们可以利用SNE或者t-SNE的方法将原本不满足非凸的数据,转换为凸集,这样很多是适用于凸集的方法便可以派上用场。SNE和t_SNE选择高斯分布或者t分布作为拟合的分布,天然就带来了转换非凸的效果。由此看来,t-SNE的方法不仅仅可以实现数据的降维,还可以进行数据形态的变换。

2、谱聚类时距离的定义

\qquad 谱聚类根据节点之间的距离关系来聚类,距离的定义可以是样本特征空间的欧氏距离,也可以是样本特征向量的夹角余弦值,也可以是径向基函数等定义的特殊距离。给定无向图 G = ( V , E ) G=(V,E) G=(V,E),节点 V = { 1 , 2 , 3... n } V=\{1,2,3...n\} V={1,2,3...n},边数据 E = { W ( i , j ) } i , j = 1 , 2 , … n E=\{W_{(i,j)}\}_{i,j=1,2,…n} E={W(i,j)}i,j=1,2,n,记录样本间距离的矩阵为加权的邻接矩阵 W W W,其元素 W ( i , j ) W_{(i,j)} W(i,j)表示的是节点 i i i j j j之间的距离。在加权的邻接矩阵下,我们定义度矩阵为 D D D,其中 D ( i , i ) = ∑ j n W ( i , j ) D_{(i,i)}=\sum_{j}^nW_{(i,j)} D(i,i)=jnW(i,j)

3、对图做切分

\qquad 进行图聚类时,我们要做的是对图中的节点进行切分,这样的切分势必会切断节点之间边的联系,如果我们能够根据这个切断的联系来构造一个损失函数,那我们追求的就是是切断损失最小的图的切分,下面我们以二切分为例,再说明下这个问题。
在这里插入图片描述

\qquad 如上图,加入我们要把一整个图一分为二,那么理应选择一个切分,只截断最少的边,切分生成如上图的两个子图,两个子图之间的连接尽可能少,连接尽可能保留在子图内部。我们定义子图之间的的连接权值:
W ( A , B ) = ∑ i ∈ A , j ∈ B W ( i , j ) W(A,B)=\sum_{i\in A,j\in B}W_{(i,j)} W(A,B)=iA,jBW(i,j)
\qquad 其中 W W W为带权重的邻接矩阵,我们要追求对于AB最优划分,令子图之间连接,即 W ( A , B ) W(A,B) W(A,B)最小,问题转化为:
{ A ^ , B ^ } = a r g m i n c u t ( A , B ) = a r g m i n W ( A , B ) \{\hat{A},\hat{B}\}=argmin\quad cut(A,B)=argmin\quad W(A,B) {A^,B^}=argmincut(A,B)=argminW(A,B)
\qquad 将问题推广到寻找一张图最优的K个子图的最优划分,那么我们追求的就是子图之间的连接权重的最小化,下面定义这k个子图之间的连接权重为:
c u t ( A 1 , A 2 , A 3 . . . A k ) = ∑ i k W ( A i , A i ˉ ) cut(A_1,A_2,A_3...A_k)=\sum_{i}^k W(A_i,\bar{A_i}) cut(A1,A2,A3...Ak)=ikW(Ai,Aiˉ)
\qquad 其中 A i ˉ \bar{A_i} Aiˉ表示子图 A I A_I AI在图上的补集,这样我们就把划分问题转为了一个优化求最小值的问题。但是直接这样处理会带来一些问题,我们没有对划分的损失函数针对子图的规模做加权平均处理,因此不可避免地子图越大损失函数越大,算法更倾向于将单独的点划分为独立的图,为了避免这个问题,我们对子图之间的连接权重做加权处理,该方法称为Normalized cut。

4、Normalized Cut

\qquad 相较于之前的划分方式,此处我们计算子图之间的连接权重时,通过子图内部的节点的度数据之和进行加权,记节点 i i i的度为 d i = ∑ j n W ( i , j ) d_i=\sum_{j}^n W_{(i,j)} di=jnW(i,j),Normalized Cut计算方式如下:
N o r m a l i z e d C u t ( A 1 , A 2 , A 3 . . . A k ) = m i n ∑ i k W ( A i , A i ˉ ) ∑ j ∈ A i d j Normalized Cut(A_1,A_2,A_3...A_k)=min \quad \sum_{i}^k \frac{W(A_i,\bar{A_i})}{\sum_{j\in A_i}d_j} NormalizedCut(A1,A2,A3...Ak)=minikjAidjW(Ai,Aiˉ)
\qquad 谱聚类的模型便是:
{ A k ^ } k K = a r g m i n N o r m a l i z e d C u t ( A 1 , A 2 , A 3 . . . A k ) \{\hat{A_k}\}_k^K=argmin \quad Normalized Cut(A_1,A_2,A_3...A_k) {Ak^}kK=argminNormalizedCut(A1,A2,A3...Ak)
\qquad 引入指示变量矩阵 Y n × K Y_{n \times K} Yn×K:
y i ∈ { 0 , 1 } K y_i\in \{0,1\}^K yi{0,1}K
∑ j = 1 K y i , j = 1 \sum_{j=1}^K y_{i,j}=1 j=1Kyi,j=1
\qquad 其中y_{i,j}表示第i个样本属于第j个子图划分。指示矩阵满足性质:
Y T Y = ∑ i = 1 n y i y i T Y^TY=\sum_{i=1}^ny_iy_i^T YTY=i=1nyiyiT
\qquad 对于y_iy_i^T,若y_i属于k类,则仅在对角线的 ( k , k ) (k,k) (k,k)位置上为1,其他位置均为零,由此可知累加 ∑ i = 1 n y i y i T \sum_{i=1}^ny_iy_i^T i=1nyiyiT为对角阵,若记 N k N_k Nk为属于第k个划分的节点数,则
Y T Y = d i a g ( N 1 , N 2 . . . N K ) Y^TY=diag(N_1,N_2...N_K) YTY=diag(N1,N2...NK)

为方便书写,我们记 N c u t = N o r m a l i z e d C u t ( A 1 , A 2 , A 3 . . . A k ) Ncut=Normalized Cut(A_1,A_2,A_3...A_k) Ncut=NormalizedCut(A1,A2,A3...Ak),所以:
Y ^ = a r g m i n N c u t \hat{Y}=argmin \quad Ncut Y^=argminNcut
\qquad 将Ncut写成矩阵的形式:
N c u t = T r a c e [ d i a g ( W ( A 1 , A 1 ˉ ) ∑ j ∈ A 1 d j , W ( A 2 , A 2 ˉ ) ∑ j ∈ A 2 d j . . . W ( A K , A K ˉ ) ∑ j ∈ A K d j ) ] Ncut=Trace[diag( \frac{W(A_1,\bar{A_1})}{\sum_{j\in A_1}d_j},\frac{W(A_2,\bar{A_2})}{\sum_{j\in A_2}d_j}...\frac{W(A_K,\bar{A_K})}{\sum_{j\in A_K}d_j})] Ncut=Trace[diag(jA1djW(A1,A1ˉ),jA2djW(A2,A2ˉ)...jAKdjW(AK,AKˉ))]
= T r a c e [ d i a g ( W ( A 1 , A 1 ˉ ) , W ( A 2 , A 2 ˉ ) . . . W ( A K , A K ˉ ) ) ⋅ d i a g ( ∑ j ∈ A 1 d j , ∑ j ∈ A 2 d j . . . ∑ j ∈ A K d j ) − 1 ] =Trace[diag( W(A_1,\bar{A_1}), W(A_2,\bar{A_2})... W(A_K,\bar{A_K}))\cdot diag(\sum_{j\in A_1}d_j,\sum_{j\in A_2}d_j...\sum_{j\in A_K}d_j)^{-1}] =Trace[diag(W(A1,A1ˉ),W(A2,A2ˉ)...W(AK,AKˉ))diag(jA1dj,jA2dj...jAKdj)1]
= T r a c e [ O , P − 1 ] =Trace[O,P^{-1}] =Trace[O,P1]
\qquad 下面我们尝试给矩阵 O O O P P P换一个表达,由于 D = d i a g ( d 1 , d 2 , . . . d n ) D=diag(d_1,d_2,...d_n) D=diag(d1,d2,...dn),由前文关于 Y T Y Y^TY YTY的叙述,我们可以将矩阵P写作:
P = Y T D Y P=Y^TDY P=YTDY
\qquad 对于矩阵O,我们记全部节点的图为V:
O = d i a g ( W ( A 1 , A 1 ˉ ) , W ( A 2 , A 2 ˉ ) . . . W ( A K , A K ˉ ) ) O=diag( W(A_1,\bar{A_1}), W(A_2,\bar{A_2})... W(A_K,\bar{A_K})) O=diag(W(A1,A1ˉ),W(A2,A2ˉ)...W(AK,AKˉ))
O = d i a g ( W ( A i , V ) ) − d i a g ( W ( A i , A i ) ) O=diag( W(A_i,V))-diag( W(A_i,A_i)) O=diag(W(Ai,V))diag(W(Ai,Ai))
= d i a g ( ∑ j ∈ A i d j ) − d i a g ( W ( A i , A i ) ) =diag(\sum_{j\in A_i}d_j)-diag( W(A_i,A_i)) =diag(jAidj)diag(W(Ai,Ai))
\qquad 其中第一项我们已经给出过了,等于 Y T D Y Y^TDY YTDY,第二项可以写成 Y T W Y Y^TWY YTWY,这是因为:
Y T W Y = ∑ i = 1 n ∑ j = 1 n W ( i , j ) y i T y j Y^TWY=\sum_{i=1}^n \sum_{j=1}^n W_{(i,j)}y_i^Ty_j YTWY=i=1nj=1nW(i,j)yiTyj
\qquad 矩阵对角线元素为:
Y T W Y ( k , k ) = ∑ i ∈ A k ∑ j ∈ A k W ( i , j ) y i T y j Y^TWY_{(k,k)}=\sum_{i\in A_k} \sum_{j\in A_k} W_{(i,j)}y_i^Ty_j YTWY(k,k)=iAkjAkW(i,j)yiTyj
= ∑ i ∈ A k ∑ j ∈ A k W ( i , j ) = W ( A k , A k ) =\sum_{i\in A_k} \sum_{j\in A_k} W_{(i,j)}=W(A_k,A_k) =iAkjAkW(i,j)=W(Ak,Ak)
\qquad Y T W Y Y^TWY YTWY对角线元素和矩阵O是相同的,故我们这里进行迹运算,结果是一样的。综上所述,在对矩阵 Y Y Y列向量仅有一维度为1其他维度为0的约束下,求解最优化问题:
a r g m i n Y N c u t = a r g m i n Y T r a c e [ ( Y T ( D − W ) Y ) ⋅ ( Y T D Y ) − 1 ] argmin_Y\quad Ncut=argmin_Y\quad Trace[(Y^T(D-W)Y)\cdot(Y^TDY)^{-1}] argminYNcut=argminYTrace[(YT(DW)Y)(YTDY)1]
= a r g m i n Y T r a c e [ ( Y T L Y ) ⋅ ( Y T D Y ) − 1 ] =argmin_Y\quad Trace[(Y^TLY)\cdot(Y^TDY)^{-1}] =argminYTrace[(YTLY)(YTDY)1]
以上形式刚好是广义瑞利商的形式,我们不加证明来看下广义瑞利商的性质:
在这里插入图片描述

\qquad 由此我们可以确定我们的矩阵Y的行向量为拉普拉斯矩阵的n个特征向量中的k个,由瑞利商的性质可知,除了特征向量 [ 1 , 1...1 ] T [1,1...1]^T [1,1...1]T之外,当我们选定特征值最小的其他k个对应的特征向量来构成我们的矩阵Y时,我们的求和式目标函数取得最小值。这里的思路和我们通过过定义损失函数来逐个求解主成分分析的主成分时一样。
\qquad 至此我们已经说明了谱聚类的完整过程,谱聚类的运用很简单,只需要围绕拉普拉斯矩阵做特征对角化求解特征值和特征向量即可,但是求解谱聚类的过程蕴含的思想对于理解图数据很有意义。
注:关于瑞利商的推导和应用我们另写文章

总结

\qquad 关于图数据的分析集中在围绕反映图结构的拉普拉斯矩阵的分析中,核心对象是拉普拉斯矩阵的特征值、特征向量,从信号处理的角度审视,将矩阵线性空间的基和变化拉伸程度转换为频率和频率的重要性程度,但是换汤不换药,其本质还是矩阵的特征分解,还是落脚在对于矩阵运算的理解上。因此我们在这个版块里花了大量的笔墨去讲述理解矩阵乘法的全新视角,这是很有意义的一件事。
\qquad 关于图卷积神经网络的思想,一言以蔽之,空域卷积是基于权重矩阵非零元素的整体的一个卷积操作,参数很多,缺少权重共享降低运算量;频谱方法下的卷积,从信号处理角度理解,是对频率的一个滤波操作,通过构建不同的频率滤波器来提取不同特征,简单说就是通过给拉普拉斯矩阵换个特征对角阵来实现滤波操作;其他的基于切比雪夫不等式的方法,都是为了提升运算的效率而采用的频谱方法的简化。关于图卷积神经网络的内容我们将在下一个板块里详细展开。

  • 0
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值