【CV论文解读】AAAI2021 | 在图卷积网络中超越低频信息

论文解读者:北邮 GAMMA Lab 博士生  薄德瑜

题目: 在图卷积网络中超越低频信息

会议: AAAI 2021

论文链接: https://arxiv.org/abs/2101.00797

图神经网络已被证明在各种与网络相关的任务中都是有效的。现有的大多数图神经网络通常都利用节点特征中的低频信号,这引起了一个基本问题:在实际应用中,我们只需要低频信号吗?在本文中,我们首先进行了一项实验研究,评估了低频和高频信号的作用,结果清楚地表明,仅使用低频信号不能在不同情况下学习到有效的节点表示。如何能够自适应地学习图神经网络中低频信息以外的更多信息?一个好的回答可以帮助图神经网络增强适应性。为了解决这一挑战,并提出了一种具有自门控机制的新颖的频率自适应图卷积网络(Frequency Adaptation Graph Convolutional Networks, FAGCN),该方法可以在消息传递过程中自适应地集成不同频率的信号。为了更深入地了解,我们从理论上分析了低频信号和高频信号在学习节点表示中的作用,这进一步解释了为什么频率自适应图卷积网络可以在不同类型的网络上表现良好。在六个真实世界的网络上进行的大量实验证明,频率自适应图卷积网络不仅可以缓解过度平滑的问题,而且还具有优于最新技术的优势。

1 引言

图神经网络通过聚集来自邻居的信息来更新节点表示,这可以看作是低通滤波器的一种特殊形式。最近的一些研究表明信号的平滑性,即低频信息,是图神经网络成功的关键。然而,我们所需要的只是低频信息吗?其他信息在图神经网络中扮演什么角色?这是一个基础问题,启发我们重新思考图神经网络在学习节点表示时是否能够全面利用节点特征信息。

图神经网络中的低通滤波器主要保留了节点特征的共性,这不可避免地忽略了节点特征的差异,使得相连节点的表示变得相似。由于低频信息的平滑性,这种机制可能适用于同配网络,即同一类的节点倾向于彼此连接。然而,现实世界中的网络并不总是同配的,有时是异配的,即不同类的节点往往相互连接。例如,在蛋白质-蛋白质相互作用网络中,化学反应经常发生在不同类型的蛋白质之间。如果我们通过使用低通滤波器强迫相邻节点的表征相似,显然,性能将受到很大的阻碍。

为了为上述分析提供更多的证据,我们以低频和高频信号为例,通过实验来评估它们的作用(详情见第2节)。结果表明,这两种方法都有助于学习节点表征。具体地说,我们发现当一个网络表现出异配性时,高频信号的表现要比低频信号好得多。这意味着,高频信号在图神经网络中不总是无用的;而低频信号对于复杂的网络来说也不是最优的。既然图神经网络中低频信息的缺点已经被确认,一个自然的问题就是如何在图神经网络中使用不同频率的信号,同时,让图神经网络能够适应不同类型的网络

我们设计了一种通用的频率自适应图卷积网络,用于自适应地聚合来自邻居或自身的不同信号。我们首先利用图信号理论,形式化的定义了增强型低通和高通滤波器,用来将低频和高频信号从原始特征中分离出来。在此基础上,设计了一种在不需要知道网络类型的情况下,能够自适应融合低频信号、高频信号和原始特征的自门控机制。理论分析表明,频率自适应图卷积网络是现有图神经网络的一个推广,它能够自由地缩短或扩大节点表示之间的距离,这进一步解释了为什么频率自适应图卷积网络能够在不同类型网络上的表现良好。

2 探索研究

在本节中,我们以低频和高频信号为例,分析它们在学习节点表示中的作用。具体来说,我们生成了一系列合成网络,其特点是类内连接(intra-connection)的概率固定为0.05,同时类间连接(inter-connection)的概率逐渐从0.01增大到0.1。当类间连接的概率较小时,网络表现出同配性;随着类间连接概率的增加,网络逐渐呈现出异配性。然后我们测试了低频和高频信号的节点分类性能的变化情况,具体如下:

图(a)说明了随着类间连接概率的增加,低频信号的准确度降低,而高频信号的准确度逐渐提高。这说明低频和高频信号都有助于学习节点表示。当类间连接概率增大时,现有的图神经网络失败的原因,如图(b)所示,它们只聚合来自相邻节点的低频信号,使得节点表示变得相似,而不管节点是否属于同一类,从而失去了区分性。我们提出的频率自适应图卷积网络结合了低通和高通滤波器的优点,可以将同类邻居的低频信号和不同类邻居的高频信号进行聚合,如图(c)所示,从而在每个合成网络上都显示出最佳的性能。

3 方法

在介绍模型之前,我们首先比较已有图神经网络和频率自适应图卷积网络在聚合过程上的区别。下图左侧展示了已有的图神经网络在聚合中考虑了每个节点的重要性;右侧是频率自适应图卷积网络,它利用了两个系数 来分别聚合邻居的低频和高频信息。

为了充分利用节点特征中的低频和高频信号,我们设计了增强低通滤波器 和增强高通滤波器 ,将低频和高频信号从节点特征中分离出来:

的卷积核是 ,重写为 的卷积核是 。其频率响应滤波函数如图所示:

可以看到,对于二阶低通滤波器 ,如图(b)所示,当 时,其滤波器响应函数 ,因此会为低频信号低通一个更强的增益;当 时, ,因此会抑制高频信号。二阶高通滤波器 ,如图(d)所示,会为高频信号提供更强的增益,同时抑制低频信号。

将滤波器 ,与特征矩阵 相乘,我们可以得到每个节点的低频和高频信息。然后利用一个门控机制来控制信息聚合过程中低频和高频信号的占比:

但是上式有两个缺点:一是低通滤波器 和高通滤波器 都依赖于拉普拉斯矩阵进行定义,所以只能做transductive模型;二是低频和高频信息的提取需要滤波器和特征矩阵相乘,计算开销太大。为了解决这两个问题,我们设计了空间域上的频率自适应网络,该模型既有归纳和批处理的能力,又有很好的可解释性

右式可以分为两部分: 是节点 自身的特征; 是节点 邻居的特征,则 代表了邻居节点的权重。我们可以发现,如果假设低频和高频的比例和为1,即 ,则 我们如果令 ,当 时,低频信号会主导节点表征;而 时,高频信号的作用较大。此外,我们发现, (即聚合时边权重为正)代表了节点和其邻居的和; (即聚合时边权重为负)代表了节点和其邻居的差,在第4节我们会进一步分析边权重正负所带来的影响。最后我们用一个简单的方法来学习边权重:

tanh激活函数可以保证边权重在 之间。最后我们的模型框架可以形式化为以下公式:

4 理论分析

我们进一步分析了边权重正负会给学习节点表征带来什么样的影响。具体来说,如果用正权重聚合邻居信息,则节点和其邻居表征之间的距离会缩小( );而用负权重聚合会使得节点和其邻居表征之间的距离变大( )。

5 实验

同配网络节点分类实验:

异配网络节点分类实验:

过平滑实验:最后我们还分析了FAGCN对于缓解过平滑也有一定的帮助,原因有两个:一是在第4节中,我们展示了负权重可以防止节点表示过于相似;另一种是我们将原始特征(包含低频和高频信息)添加到每一层,这进一步防止节点表示变得难以区分。

本期责任编辑:杨成

本期编辑:刘佳玮


北邮 GAMMA Lab 公众号

主编:石川

责任编辑:王啸、杨成

编辑:刘佳玮

副编辑:郝燕如,纪厚业


往期精彩回顾



适合初学者入门人工智能的路线及资料下载机器学习及深度学习笔记等资料打印机器学习在线手册深度学习笔记专辑《统计学习方法》的代码复现专辑
AI基础下载机器学习的数学基础专辑
本站知识星球“黄博的机器学习圈子”(92416895)
本站qq群704220115。
加入微信群请扫码:

  • 1
    点赞
  • 3
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
神经网络(Convolutional Neural Network,CNN)是一种专门用于像识别和处理的深度学习算法。卷神经网络最重要的组成部分就是卷层(Convolutional Layer)。卷层是卷神经网络最基本的结构之一,它的主要作用是提取像的特征。本文将详细介绍卷层的原理、结构以及常用的优化方法。 一、卷层的原理 卷层是卷神经网络最基本的结构之一,它的主要作用是提取像的特征。卷层的原理是利用卷核(Kernel)对输入像进行卷运算,提取出像的特征。卷核是一个小矩阵,它在像上滑动,将每个位置上的像素值与卷的权重进行乘法运算,并将结果相加,得到一个新的像素值。这个新的像素值就是卷核在该位置上提取的特征。 卷操作可以看作是一种滤波操作,它可以将的高频信息和低频信息分离出来。高频信息通常包含的细节信息,如边缘、纹理等;低频信息则包含的大致形状和结构。卷操作可以通过一系列的卷核来提取不同类型的特征,这些特征可以用于像分类、目标检测等任务。 二、卷层的结构 卷层的结构包括卷核、步长、填充、激活函数等。下面分别介绍这些结构。 1. 卷核 卷核是卷最重要的参数之一。卷核通常是一个小矩阵,它的大小通常为3x3、5x5、7x7等。卷的每个权重都代表着一个特征,这些特征可以用于提取的不同信息。 卷核的数量是卷层的另一个重要参数。卷可以有多个卷核,每个卷核可以提取不同的特征。例如,第一个卷核可以提取边缘信息,第二个卷核可以提取纹理信息,第三个卷核可以提取形状信息等。 2. 步长 步长(Stride)是卷操作控制卷核移动的距离。当步长为1时,卷核每次只移动一个像素;当步长为2时,卷核每次移动两个像素。步长越大,卷核的移动越快,卷操作提取的特征也越少。 3. 填充 填充(Padding)是卷操作用于控制输出像大小的参数。当输入像太小,卷操作可能会导致输出像更小,这样就会丢失一些信息。为了解决这个问题,可以使用填充操作,在输入像的周围添加一圈0,使得输出像大小与输入像大小相同。 4. 激活函数 激活函数是卷的一个重要组成部分。激活函数的作用是对卷操作的结果进行非线性变换,使得网络可以学习更加复杂的特征。常用的激活函数包括ReLU、Sigmoid、Tanh等。 三、卷层的优化 卷层的优化方法主要包括权重初始化、批标准化、残差网络等。下面分别介绍这些方法。 1. 权重初始化 权重初始化是卷神经网络的一个重要问题。不恰当的权重初始化可能会导致梯度消失或梯度爆炸等问题。为了解决这个问题,可以采用一些有效的权重初始化方法,如Xavier初始化、He初始化等。 Xavier初始化是一种比较常用的权重初始化方法。它的原理是根据输入神经元和输出神经元的数量来随机初始化权重。这种方法可以使得激活函数的输出分布在一个比较合适的范围内,从而避免梯度消失或梯度爆炸等问题。 2. 批标准化 批标准化(Batch Normalization)是一种用于加速卷神经网络训练的技术。它的主要作用是对每一层的输入进行归一化,使得网络可以更快地收敛。批标准化可以减少内部协变量移位(Internal Covariate Shift)的影响,从而提高网络的稳定性和性能。 3. 残差网络 残差网络(Residual Network)是一种用于解决深度卷神经网络梯度消失和梯度爆炸等问题的技术。它的主要思想是在网络添加一些跨层连接(Skip Connection),使得信息可以更快地传递。残差网络可以使得网络更加深,从而提高网络的性能和精度。 四、总结 卷层是卷神经网络最基本的结构之一,它的主要作用是提取像的特征。卷层的结构包括卷核、步长、填充、激活函数等。卷层的优化方法主要包括权重初始化、批标准化、残差网络等。在实际应用,我们可以根据具体任务的要求来选择合适的卷层结构和优化方法,以提高网络的性能和精度。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值