Revisiting Oversmoothing in Deep GCNs 重新探究深度GCN中的过度平滑

   过度平滑被认为是深度图卷积网络(GCN)中性能下降的主要原因。 在本文中,我们提出了一种新的观点,即深层GCN可以在训练过程中真正学会抗过度平滑。 这项工作将标准GCN体系结构解释为多层感知器(MLP)的分层集成和图正则化。 我们分析并得出结论,在训练之前,深层GCN的最终表示确实会过度平滑,但是,它会在训练过程中学习到反过度平滑的功能。 根据结论,本文进一步设计了一种便宜而有效的技巧来改善GCN训练。 我们验证我们的结论并评估三个引文网络上的技巧,并进一步提供有关GCN中邻域聚集的见解。

引言

   本文指出:深度GCN在训练之前确实会出现过度平滑,这也是GCN的特性,但在训练过程中它会学习抗过度平滑。通过两步来重构基于MLP的图正则化模型。每一步最小化一个损失函数,其中 ι r e g \iota _{reg} ιreg是图正则化损失,表示的是相连节点对之间的平滑性。 ι 0 \iota _{0} ι0是经验损失。步骤一隐式地将正则化损失编码为MLP的层级传播,得到GCN结构;步骤二在GCN结构上执行标准的反向传播算法来最小化 ι 0 \iota _{0} ι0
所以GCN能被表示为两步最小化:

在前向传播的过程中编码 ι r e g \iota _{reg} ιreg,并在 ι 0 \iota _{0} ι0的监督下训练参数。
在这里插入图片描述
   该图很明显的说明了在前向传播过程中(训练之前),GCN确实会遇到过平滑,因为特征之间的平滑性得分和节点之间的平滑性得分越来越高,说明特征和节点之间趋于一致,由于深层GCN体系结构的影响自然会使 ι r e g \iota _{reg} ιreg最小,因此逐渐使所有节点表示与拉普拉斯算子的最大特征向量成比例。但是在step2训练过程中GCN会学习阻止过平滑。因为:(1)过平滑的情况取决于 { W l } \left \{ W_{l} \right \} { Wl}
(2)step2的目标是找到最优的 { W l } \left \{ W_{l} \right \} { Wl},也就是最小化经验损失 ι 0 \iota _{0} ι0
(3)只要过平滑存在,节点间的表达就会变得难以区分,所以最小化 ι 0 \iota _{0} ι0,模型必须学习使特征变得可分,也就意味着抗过平滑。

1.1基于图的正则化

   图正则化是一种相当通用的图嵌入算法,它被描述为:找到一个映射 f ( ⋅ ) f\left ( \cdot \right ) f(),来最小化下面的损失函数:
在这里插入图片描述
第一项是标签集的经验风险,第二项是相连节点对的图正则化项。
其中:在这里插入图片描述
Δ = I − D − 1 / 2 A D − 1 / 2 \Delta =I-D^{-1/2}AD^{-1/2} Δ=ID1/2AD1/2是正则化后的拉普拉斯算子, ι r e g \iota _{reg} ιreg是对相邻节点间引起的变化进行惩罚。

1.2梯度下降来最小化 ι r e g \iota _{reg} ιreg

   给定拉普拉斯算子 Δ ∈ R n × n \Delta\in \mathbb{R}^{n\times n} ΔRn×n ,特征矩阵 Δ ∈ X n × d \Delta\in \mathbb{X}^{n\times d} ΔXn×d ,为了防止出现平凡解 X = 0 ∈ R n × d X=0\in \mathbb{R}^{n\times d} X=0Rn×d,加入一个限制条件, ∣ ∣ X ∣ ∣ F 2 = c 1 ∈ R ∔ \left | \left | X \right | \right |_{F}^{2}=c_{1}\in \mathbb{R}^{\dotplus } XF2=c1R,即 X X X的F范数必须为正数,F范数是矩阵各项绝对值平方之和。那么这个最优化问题就变为了:
在这里插入图片描述
我们把这个最优化问题转化成瑞利熵:
在这里插入图片描述
瑞利熵: 一个向量 x ∈ R m x\in \mathbb{R}^{m} xRm的瑞利熵是一个标量:
在这里插入图片描述
   它对 x x x具有尺度不变性,即对于任意 c 1 ≠ 0 ∈ R c_{1}\neq 0\in \mathbb{R} c1=0R,有 R ( x

  • 1
    点赞
  • 9
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
### 回答1: GCN(Graph Convolutional Network)是一种用于图结构数据的深度学习模型,而Cora数据集是一个常用的用于研究GCN模型性能的基准数据集。 Cora数据集是由论文《Revisiting Semi-Supervised Learning with Graph Embeddings》提出的,用于研究半监督学习与图嵌入方法。它包含了一个引文网络,其节点代表了学术论文,边表示两篇论文之间的引用关系。数据集的每篇论文都有一个包含1433个特征的特征向量,这些特征向量是通过将每篇论文的标题和摘要转化为词向量、计算TF-IDF得到的。 在Cora数据集,论文被分为7个不同的类别(如机器学习、神经网络、数据库等)。数据集总共包含2708个节点(论文),其有140个节点(论文)带有类别标签,其余节点没有标签。因此,Cora数据集被广泛用于基于图结构的半监督学习问题的研究GCN模型可以用于Cora数据集的半监督学习任务。模型接受Cora数据集的邻接矩阵和特征矩阵作为输入。通过对邻接矩阵进行卷积操作,并结合特征矩阵,GCN模型能够通过学习节点之间的关系以及节点的特征信息来预测未标记节点的标签。 研究者可以使用Cora数据集来验证自己所提出的GCN模型在半监督学习任务上的性能。当然,Cora数据集也可以用于其他与引文网络相关的研究,如节点分类、链路预测等。 总而言之,Cora数据集为研究者提供了一个用于验证GCN模型性能以及进行其他引文网络相关研究的标准数据集,通过该数据集可以促进图神经网络领域的发展。 ### 回答2: GCN(Graph Convolutional Network)是一种用于图数据学习的深度学习模型,可以学习节点的表示和图的关系。Cora数据集是一个常用的图数据集,用于评估和比较不同的图学习算法。 Cora数据集包含一个包含2708个科学论文的引文网络。这些论文分为7个类别,其每个类别对应着一个研究领域。引文网络的节点表示论文,边表示论文间的引用关系。论文的特征向量是词频的One-Hot编码,而边缘是无向的。 在使用GCN对Cora数据集进行训练时,首先需要将图结构转换为邻接矩阵的表示。邻接矩阵的每个元素代表两个节点之间的连接情况。随后,需要为每个节点生成初试的特征向量表示。GCN模型通过多层的图卷积操作来学习节点表示。 在训练过程GCN会通过前向传播和反向传播来更新权重,使得模型能够尽可能地准确地预测每个节点的类别。通过迭代训练,GCN模型可以逐渐提升对节点表示和图结构关系的学习能力。 在使用Cora数据集进行训练时,我们可以评估模型在节点分类任务上的性能。即给定一个节点,预测其所属的类别。通常,我们可以将数据集划分为训练集、验证集和测试集,并使用验证集来调整超参数,通过测试集来评估模型的泛化能力。 总之,GCN模型是一种用于图数据学习的强大工具,在Cora数据集上的应用可以帮助我们更好地理解和分析引文网络的关系。 ### 回答3: GCN(Graph Convolutional Network)是一种用于图数据的深度学习模型,而Cora数据集则是用于GNN模型训练和评估的常用数据集之一。 Cora数据集是由Jon Kleinberg设计和发布的,用于文本分类任务。该数据集包含了从一系列研究论文提取出的2708个文档的特征。这些文档分为7个类别,即机器学习、数据库、人类智能、设计与分析、系统、理论和数据结构。同时,这些文档之间的引用关系被用作图结构,通过边来表示不同文档之间的引用关系。这个图表示了论文之间的知识传播和交互。 在GCN,每个节点代表一个文档,而边代表了文档之间的引用关系。对于Cora数据集而言,每个节点都有一个特征向量,包含了关于论文的内容信息。GCN模型通过使用图卷积神经网络的聚合操作来从邻居节点汇聚信息,并将这些信息进行特征提取和表示学习。 训练一个GCN模型需要将Cora数据集划分为训练集、验证集和测试集。通常,将140个样本用作训练集,500个样本用作验证集,剩余的2068个样本用作测试集。在训练过程GCN模型将根据训练集上的标签信息进行参数反向传播和优化,以减小预测标签与真实标签之间的差距。 通过训练GCN模型,并使用Cora数据集进行评估,我们可以评估GCN模型在文本分类任务的性能。通过计算模型在测试集上的准确率或其他性能指标,我们可以了解其在准确地预测不同文档的类别方面的能力。在实际应用GCN模型和Cora数据集可以被用于许多图数据相关的任务,如社交网络分析、推荐系统等。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值