GNN论文周报|来自北航、港大、UIUC等机构前沿论文研究

图神经网络(GNN)是一类专门针对图结构数据的神经网络模型,在社交网络分析、知识图谱等领域中取得了不错的效果。近来,相关研究人员在GNN的可解释性、架构搜索、对比学习等方面做了很多探究。

本周精选了10篇GNN领域的优秀论文,来自北航、港大、UIUC等机构。

为了方便大家阅读,只列出了论文标题、作者、ChatPaper综述等信息,如果感兴趣可点击“阅读原文”,PC端数据同步(收藏即可在PC端查看),每日新论文也可登录小程序查看。

1. Transformers for Capturing Multi-level Graph Structure using Hierarchical Distances

这篇论文主要研究了如何在图结构中捕捉多层次结构,提出了一种层次距离结构编码(HDSE)方法,该方法专注于图的多层次、层次结构。这种编码方法可以灵活地与现有的图转换器相结合,允许与其他位置表示同时使用。通过在 12 个真实世界数据集上进行大量实验,证明了该方法可以成功地增强各种类型的基线转换器,在 10 个基准数据集上实现了最先进的实证性能。

链接:https://www.aminer.cn/pub/64e584d03fda6d7f063b2213/

2. How Expressive are Graph Neural Networks in Recommendation?

这篇论文主要研究了图神经网络(GNNs)在推荐任务中的表达能力。尽管 GNNs 在推荐等图学习任务中表现出优越的性能,但其能力的理论公式却很少。近期,研究者开始探索 GNNs 的一般表达能力,发现消息传递 GNNs 的表达能力至多为 Weisfeiler-Lehman 测试,而结合随机节点初始化的 GNNs 具有通用性。然而,GNNs 的“表达能力”概念仍然模糊不清。大多数现有研究采用图同构测试作为表达能力的度量标准,但这个图级任务可能无法有效地评估模型在推荐任务中的能力,因为推荐的目标是区分不同亲密度的节点。在这篇论文中,作者对 GNNs 在推荐中的表达能力进行了全面的理论分析,考虑了三个表达能力度量标准:图同构(图级)、节点自同构(节点级)和拓扑接近度(链接级)。作者提出了拓扑接近度度量标准来评估 GNNs 捕捉节点之间结构距离的能力,这与推荐的目标紧密一致。为了验证这个新度量标准在评估推荐性能方面的有效性,作者引入了一个在学习中无需 GNN 算法,该算法在新度量标准上最优,并在适当修改后可以在节点级度量标准上最优。作者还进行了大量实验,将所提出的算法与各种类型的最先进的 GNN 模型进行比较,以探讨新度量标准在推荐任务中的可解释性。

链接:https://www.aminer.cn/pub/64e5846c3fda6d7f063ac8de/

3. Graph Neural Bandits

这篇论文提出了一种名为“图神经带宽”(Graph Neural Bandits, GNB)的框架,用于解决上下文带宽问题。在这个框架中,作者利用图神经网络(GNNs)来建模用户之间的协作关系,以解决探索-- 利用困境。与传统的用户聚类方法不同,GNB 通过估计用户图在利用和探索方面的“细粒度”协作效应来进行建模。然后,作者使用单独的 GNN 模型来优化利用和自适应探索的推荐策略。通过在多个真实数据集上的理论分析和实验结果,并与最先进的基线进行比较,证明了所提出的框架的有效性。

链接:https://www.aminer.cn/pub/6433f6b990e50fcafd6ef10f/

4. UGSL: A Unified Framework for Benchmarking Graph Structure Learning

这篇论文介绍了一个统一的框架(UGSL)用于评估图结构学习方法。图神经网络(GNNs)在广泛的应用中表现出色,一些最近的方法通过显示即使没有显式提供图结构时,GNNs 也可能有效,从而大大扩展了 GNN 的应用范围。GNN 参数和图结构是联合学习的。以前的研究采用了不同的实验设置,使得难以比较它们的优点。在这篇论文中,作者提出了一种使用统一框架的图结构学习基准策略。该框架名为统一图结构学习(UGSL),它将现有模型重新定义为单一模型。作者在我们的框架中实现了广泛的现有模型,并对框架中不同组件的有效性进行了广泛分析。我们的结果提供了对这个领域中不同方法的清晰简洁的理解,以及它们的优缺点。

链接:https://www.aminer.cn/pub/64e432c73fda6d7f0600b85d/

5. Geometric instability of graph neural networks on large graphs

这篇论文探讨了大规模图上的图神经网络(GNN)的几何不稳定性。现有的方法仅适用于小规模图,且在图领域缺乏背景。作者提出了一种简单、高效且具有图原性的图语法索引(GGI)来测量这种不稳定性,该指数对置换、正交变换、平移和评估顺序具有不变性。这使得我们能够研究 GNN 嵌入在大规模图上几何不稳定性的变化行为,同时包括节点分类和链路预测。

链接:https://www.aminer.cn/pub/64e432bf3fda6d7f0600afb3/

6. Contrastive Learning for Non-Local Graphs with Multi-Resolution Structural Views

这篇论文主要研究了如何学习具有多分辨率结构的非局部图的节点级表示,这对于各种应用,如欺诈检测和蛋白质功能预测等具有重要意义。然而,现有的对比方法很难捕捉到更高阶的图结构。为了解决这个问题,作者提出了一种将扩散滤波器引入图的多视图对比学习方法,通过将多个图视图作为增强,能够捕捉到异质图中的结构等价性,从而发现传统节点表示中不明显的隐藏关系和相似性。作者的方法在合成和真实结构数据集上优于基线,并在 Cornell、Texas 和 Wisconsin 数据集上分别比最佳基线提高了 16.06%、3.27% 和 8.04%。此外,它还在临近任务上持续表现出优越的性能,证明了其在发现结构信息和改善下游应用方面的有效性。

链接:https://www.aminer.cn/pub/64e432bf3fda6d7f0600af9c/

7. Approximately Equivariant Graph Networks

本文研究了图神经网络(GNNs)的近似等变性。与欧几里得卷积神经网络(CNNs)的平移等变性不同,GNNs 的等变性涉及到图形信号和图形领域的所有置换(也被称为被动对称性)。作者关注 GNNs 的主动对称性,考虑信号在固定图形上的学习设置。在这种情况下,GNNs 的自然对称性是图形的自同构。鉴于现实世界的图形往往不对称,作者通过图形粗化来正式化近似对称性。作者提出了一个偏差-- 方差公式,该公式量化了在选定的对称组之间,学习估计器的表达式损失与规律性收益之间的权衡。为了说明这种方法,作者还在图像修复、交通流量预测和人体姿态估计等任务中进行了大量实验,研究了不同对称性选择对性能的影响。作者证明了,在比图形自同构群稍大但小于全置换群的合适群中选择对称性可以实现最佳泛化性能。

链接:https://www.aminer.cn/pub/64e432bf3fda6d7f0600b118/

8. GiGaMAE: Generalizable Graph Masked Autoencoder via Collaborative Latent Space Reconstructio

本文提出了一种名为 GiGaMAE 的图 masked 自编码器框架,用于解决当前 masked 自编码器模型在图数据上缺乏良好泛化能力的问题。不同于现有的 masked 自编码器通过显式重构原始图组件(如特征或边)来学习节点表示,本文提出了一种合作重构信息丰富且集成的潜在嵌入的方法。通过将包含图拓扑和属性信息的嵌入作为重构目标,我们的模型可以捕捉更泛化和更全面的知识。此外,我们引入了一种基于互信息的重构损失,可以有效地重构多个目标。这个学习目标允许我们区分从单个目标中学习的专属知识和多个目标共享的公共知识。我们在三个下游任务和七个数据集上评估我们的方法,并与现有基线进行了广泛实验。实验结果表明,GiGaMAE 在图结构数据上的表现优于现有基线。希望我们的结果能为图结构数据的基础模型设计提供启示。

链接:https://www.aminer.cn/pub/64e2e15a3fda6d7f06466ab6/

9. Disparity, Inequality, and Accuracy Tradeoffs in Graph Neural Networks for Node Classification

这篇论文主要研究了图神经网络(GNNs)在节点分类任务中的偏差、不平等和准确性权衡问题。GNNs 在处理有属性的图以预测节点标签时,能够从节点邻居处聚合特征以实现准确分类,但这也可能加剧数据中存在的偏见,或者对来自受保护的群体的成员产生新的偏见。因此,量化 GNNs 可能存在的偏见以及降低其危害性的程度至关重要。为了实现这一目标,论文提出了两种新的 GNN 中立干预措施,分别是 PFR-AX(降低受保护和非受保护群体之间节点的分离度)和 PostProcess(根据黑盒策略更新模型预测,以最小化不同群体之间的误差率差异)。通过在四个数据集上的大量实验,论文将所提出方法(及三种变体)的有效性表述为算法公平性-- 准确性权衡,并将结果与三种强基线干预方法在三种最先进的 GNN 模型上进行比较。结果表明,没有一种单一干预能够提供普遍最优的权衡,但 PFR-AX 和 PostProcess 提供了细粒度控制,并在正确预测受保护群体节点的积极结果时提高了模型置信度。

链接:https://www.aminer.cn/pub/64e2e15a3fda6d7f06466a71/

10. Half-Hop: A graph upsampling approach for slowing down message passing

这篇论文介绍了一种名为"Half-Hop"的图上采样方法,用于减慢消息传递过程。消息传递神经网络在图结构数据上取得了很大成功,但在相邻节点属于不同类别的情况下,消息传递可能会导致过度平滑或失效。作者提出了一种简单且通用的框架,通过在原始图的每条边上添加"慢节点"来提高消息传递神经网络的学习效果。"慢节点"可以调解源节点和目标节点之间的通信。这种方法仅修改输入图,易于与现有模型结合使用。作者通过理论和实证分析说明了减慢消息传递的好处,并在多个监督和自监督基准测试中取得了改进,尤其是在异质条件下,相邻节点更可能具有不同的标签。最后,作者展示了如何使用该方法生成自监督学习的增强数据,其中慢节点随机引入到图中的不同边缘,以生成具有不同路径长度的多尺度视图。

链接:https://www.aminer.cn/pub/64be70873fda6d7f0649caef/

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值