图神经网络(一)图信号处理与图卷积神经网络(1)矩阵乘法的三种方式

图神经网络(一)图信号处理与图卷积神经网络(1)矩阵乘法的三种方式


图信号处理(Graph Signal Processing,GSP) 1是离散信号处理(Discrete Signal Processing,DSP)理论在图信号领域的应用,其通过对傅里叶变换、滤波等信号处理基本概念的迁移,来研究对图信号的压缩、变换、重构等信号处理的基础任务。

 图信号处理与图卷机模型密不可分:一方面,理解图信号处理对于了解图卷机模型的定义和演变有十分重要的帮助;一方面,图信号处理也为图卷机模型的理论研究提供了十分实用的工具。

 本章的脉络十分自然,我们将看到图信号处理的基本理论是如何延伸到图卷积神经网络中去的,首先,我们给出了图信号的基本定义,紧接着介绍图傅里叶变换,并由此引出图信号频率的定义。然后,我们介绍图信号上的滤波操作,紧接着介绍卷积滤波与图卷积模型的关系。其中还穿插了比较重要的两部分内容:一是对图信号的频域与空域的理解;二是对图信号处理的频域与空域的理解 2

1.1 矩阵乘法的三种方式

 由于本章的公式以矩阵乘法为主,为了帮助大家更好地理解公式的推导过程,我们介绍下矩阵乘法的其他两种计算方式。

 设两个矩阵 A ∈ R K × M A∈R^{K×M} ARK×M B ∈ R M × P B∈R^{M×P} BRM×P,对于 C = A B C=AB C=AB,我们有如下3种计算方式:

 (1) 内积视角:将 A A A视作一个行向量矩阵,将 B B B视作一个列向量矩阵,则:
C i j = A i , : B : , j C_{ij}=A_{i,:} B_{:,j} Cij=Ai,:B:,j (2) 行向量视角:将 B B B视作一个行向量矩阵,将 A A A视作系数矩阵,则:
C i , : = ∑ m M A i m B m , : C_{i,:}=∑_m^MA_{im} B_{m,:} Ci,:=mMAimBm,: (3) 列向量视角:将 A A A视作一个列向量矩阵,将 B B B视作系数矩阵,则:
C : , j = ∑ m M B m j A : , m C_{:,j}=∑_m^MB_{mj} A_{:,m} C:,j=mMBmjA:,m
 举例来说,设 A = [ 1 − 1 2 0 2 1 ] A=\begin{bmatrix}1&-1&2\\0&2&1\end{bmatrix} A=[101221] B = [ 2 0 − 1 1 0 − 1 ] B=\begin{bmatrix}2&0\\-1&1\\0&-1\end{bmatrix} B=210011,则:

 如果用内积视角计算,可得 C = [ 3 − 3 − 2 1 ] C=\begin{bmatrix}3&-3\\-2&1\end{bmatrix} C=[3231]

 如果用行视角进行计算,我们以 C C C的第一行计算过程为例:
[ 3 − 3 ] = [ 1 − 1 2 ] [ 2 0 − 1 1 0 − 1 ] = 1 [ 2 0 ] + ( − 1 ) [ − 1 1 ] + 2 [ 0 − 1 ] = [ 2 0 ] + [ 1 − 1 ] + [ 0 − 2 ] = [ 3 − 3 ] \begin{aligned}\begin{bmatrix}3&-3\end{bmatrix}&=\begin{bmatrix}1&-1&2\end{bmatrix}\begin{bmatrix}2&0\\-1&1\\0&-1\end{bmatrix}\\ &=1\begin{bmatrix}2&0\end{bmatrix}+(-1)\begin{bmatrix}-1&1\end{bmatrix}+2\begin{bmatrix}0&-1\end{bmatrix}\\ &=\begin{bmatrix}2&0\end{bmatrix}+\begin{bmatrix}1&-1\end{bmatrix}+\begin{bmatrix}0&-2\end{bmatrix}\\ &=\begin{bmatrix}3&-3\end{bmatrix}\end{aligned} [33]=[112]210011=1[20]+(1)[11]+2[01]=[20]+[11]+[02]=[33]

 如果用列视角进行计算,我们以 C C C的第一列计算过程为例:
[ 3 − 2 ] = [ 1 − 1 2 0 2 1 ] [ 2 − 1 0 ] = 2 [ 1 0 ] + ( − 1 ) [ − 1 2 ] + 0 [ 2 1 ] = [ 2 0 ] + [ 1 − 2 ] + [ 0 0 ] = [ 3 − 2 ] \begin{aligned}\begin{bmatrix}3\\-2\end{bmatrix}&=\begin{bmatrix}1&-1&2\\0&2&1\end{bmatrix}\begin{bmatrix}2\\-1\\0\end{bmatrix}\\ &=2\begin{bmatrix}1\\0\end{bmatrix}+(-1)\begin{bmatrix}-1\\2\end{bmatrix}+0\begin{bmatrix}2\\1\end{bmatrix}\\ &=\begin{bmatrix}2\\0\end{bmatrix}+\begin{bmatrix}1\\-2\end{bmatrix}+\begin{bmatrix}0\\0\end{bmatrix}\\ &=\begin{bmatrix}3\\-2\end{bmatrix}\end{aligned} [32]=[101221]210=2[10]+(1)[12]+0[21]=[20]+[12]+[00]=[32]
 上述两种新的矩阵计算视角除了对理解本章的公式推导大有益处之外,行视角的计算方式对理解空域图卷积的计算逻辑与意义也将有很大帮助。

参考文献


  1. [1] Shuman D I,Narang S K,Frossard P,et al.The
    emerging field of signal processing on graphs: Extending high-dimensional data analysis to networks and other irregular domains[J].IEEE signal processing magazine,2013,30(3):83-98. ↩︎

  2. [2] 刘忠雨, 李彦霖, 周洋.《深入浅出图神经网络: GNN原理解析》.机械工业出版社. ↩︎

  • 0
    点赞
  • 6
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值