GNN论文周报|来自UIUC、佐治亚大学、新加坡国立大学等机构前沿论文研究

图神经网络(GNN)是一类专门针对图结构数据的神经网络模型,在社交网络分析、知识图谱等领域中取得了不错的效果。近来,相关研究人员在GNN的可解释性、架构搜索、对比学习等方面做了很多探究。

本周精选了10篇GNN领域的优秀论文,来自UIUC、佐治亚大学、新加坡国立大学等机构。

为了方便大家阅读,只列出了论文标题、作者、ChatPaper综述等信息,如果感兴趣可复制链接查看原文,PC端数据同步(收藏即可在PC端查看),每日新论文也可登录小程序查看。

ChatPaper使用页:https://www.aminer.cn/chat/g/

1. Goodness-of-Fit of Attributed Probabilistic Graph Generative Models 阅读原文

https://www.aminer.cn/pub/64d30f2d3fda6d7f06f6c27f/

这篇论文讨论了属性概率图生成模型的拟合优度问题。概率图生成模型是重要的工具,可以实现图形表示和采样。许多最近的工作已经创建了能够表示不仅实体交互而且还有属性的概率图模型。然而,给定一个随机属性图的生成模型,拟合优度的明确条件并不是显而易见的。本文定义了拟合优度为随机二进制网络的均方一致性系数。对于这个统计量,我们概述了一个程序,通过确保均方一致性系数 (常数或随机) 的差异最小,以高概率评估学习到的属性图的结构质量。我们将这些标准应用于各种流行的图模型生成模型的表示能力验证。

2. XGBD: Explanation-Guided Graph Backdoor Detection 阅读原文

https://www.aminer.cn/pub/64d30f353fda6d7f06f6cb4a/

这篇论文提出了一种针对图学习模型的背门攻击检测方法,称为 XGBD。背门攻击是一种对图学习模型的安全威胁,可以通过将背门触发器插入训练数据集中,使得当触发器存在时,模型会做出错误的预测。为了应对背门攻击,已经提出了背门检测的方法。该论文提出了一种基于视觉和自然语言处理领域新兴检测策略的方法,即利用一种有趣的现象:当在混合背门和干净样本的数据集上训练模型时,背门样本的损失值比干净样本下降得更快,这使得通过选择损失值最低的样本来轻松检测背门样本。然而,由于忽略了图数据的拓扑特征信息,当直接应用于图域时,其检测效果受到限制。因此,该论文提出了一种基于解释的背门检测方法,以利用拓扑信息。具体而言,他们在图数据集上训练一个辅助模型,将图样本输入到模型中,然后采用解释方法将模型预测归因于一个重要的子图。他们观察到,背门样本的归因分布与干净样本有显著差异,因此解释子图可以作为检测背门样本更具判别性的特征。在多个流行的数据集和攻击方法上的全面实验证明了该方法的有效性和可解释性。

3. Implicit Graph Neural Diffusion Based on Constrained Dirichlet Energy Minimization 阅读原文

https://www.aminer.cn/pub/64d1bde83fda6d7f06ec3d3b/

本文提出了一种基于约束 Dirichlet 能量最小化的隐式图神经扩散方法。该方法通过参数化图 Laplacian 算子构建几何框架,从数据中学习顶点和边空间的几何关系以及图梯度算子。此外,该方法还将隐式 GNN 层视为 Dirichlet 能量最小化问题的固定点解,并给出在该问题中可能遭受过度平滑的条件。为了克服过度平滑问题,将隐式图扩散层设计为约束顶点特征的 Dirichlet 能量最小化问题的解,以实现平滑与节点特征信息保留之间的平衡。通过设置超参数大于参数化图 Laplacian 的最大特征值,该框架可以保证唯一平衡并快速收敛。在节点和图分类任务的基准数据集上,该模型表现优于领先的隐式和显式 GNN,并在某些数据集上观察到实质性的准确性改进。

4. XFlow : Benchmarking Flow Behaviors over Graphs 阅读原文

https://www.aminer.cn/pub/64d30f2d3fda6d7f06f6c2b1/

这篇论文摘要介绍了一个名为 XFlow 的新颖基准套件,用于研究图形上的流行为,例如谣言传播、流感病毒传播、智能电网故障等。由于种子分布、传播模型和图形拓扑之间的复杂相互作用,理解流行为是一项艰巨的任务。网络研究涉及广泛的学科,包括数学、物理学、社会科学和计算机科学,具有高度的专业化和隔阂,跨学科合作不足。从机器学习的角度来看,缺乏一个统一的平台来评估不同领域的算法。该领域的当前研究缺乏全面的基准套件来研究网络场景下的流行为。 为了解决这个问题,作者提出了一个包括各种任务、基线模型、图形数据集和评估工具的新颖基准套件的实现。

5. Adversarial Erasing with Pruned Elements: Towards Better Graph Lottery Tickets 阅读原文

https://www.aminer.cn/pub/64d1bde83fda6d7f06ec3b9a/

本文提出了一种名为 Adversarial Erasing with Pruned Elements(ACE) 的框架,以探索被忽略的、有价值的图结构和模型参数信息,并将其重新组合成 Graph Lottery Ticket(GLT),以提高最终性能。具体而言,本文提出了一种对抗性互补消融 (ACE) 框架,用于探索经过每一轮迭代剪枝后的剪枝边缘/权重中的有价值信息,从而生成更强大的 GLT,称为 ACE-GLT。实验结果表明,在各种任务中,ACE-GLT 优于现有的寻找 GLT 的方法。代码将公开发布。

6. VertexSerum: Poisoning Graph Neural Networks for Link Inference 阅读原文

https://www.aminer.cn/pub/64cc77b33fda6d7f06aebcb4/

这篇论文介绍了一种名为 VertexSerum 的新型图污染攻击,用于增加图链接窃取的有效性。通过放大链接连接泄漏,该攻击可以更准确地推断节点相邻关系。该论文提出了一种可以嵌入链接检测网络的注意力机制,以提高节点相邻关系的推断准确性。实验结果表明,VertexSerum 在四个真实数据集和三种不同的 GNN 结构上平均提高了 9.8 9.8% 9.8的 AUC 分数,显著优于当前最先进的链接推断攻击。此外,实验还证明了 VertexSerum 在黑盒和在线学习设置中的有效性,进一步验证了其在实际场景中的适用性。

7. VQGRAPH: Graph Vector-Quantization for Bridging GNNs and MLPs 阅读原文

https://www.aminer.cn/pub/64d074bf3fda6d7f06ce927c/

本文提出了一种名为 VQGraph 的新颖框架,用于学习和表示强大的图形表示空间,以连接 GNN 和 MLP。现有的 GNN 表示空间可能不够表达底层图形中多样的局部结构,从而限制了从 GNN 到 MLP 的知识转移。VQGraph 采用一种变量的向量量化自动编码器 (VQ-VAE) 的编码器作为结构感知图形令牌化器,明确表示具有不同局部结构的节点为许多离散令牌,并构成一个有意义的词典。在获得学到的词典后,提出了一种基于软令牌分配的新令牌化蒸馏目标,以充分地将结构知识从 GNN 传递到 MLP。广泛的实验和分析证明了 VQGraph 的强大性能,在 7 个图形数据集的归纳和移植设置中实现了 GNN-MLP 蒸馏的最新状态。我们还表明,与 GNN 相比,VQGraph 具有更好的性能推断速度提高了 828 倍,并且分别在平均准确性上比 GNN 和单独的 MLP 提高了 3.90% 和 28.05%。

8. Graph Anomaly Detection at Group Level: A Topology Pattern Enhanced Unsupervised Approach 阅读原文

https://www.aminer.cn/pub/64cb267b3fda6d7f06ab6b76/

这篇论文介绍了一种新的无监督框架,用于检测图层面的异常,称为 Group-level Graph Anomaly Detection (Gr-GAD)。现有的图异常检测算法主要关注单独的实体 (节点或图),而忽略了图中异常组的可能性。新框架首先使用一种基于图自动编码器 (GAE) 的变体,通过捕捉长距离不一致性来定位属于潜在异常组的锚节点。随后,采用组采样来采样候选组,并将其输入到提出的基于拓扑模式的图对比学习 (TPGCL) 方法中。TPGCL 利用组的拓扑模式作为线索,为每个候选组生成嵌入,从而区分不同的异常组。在真实世界和合成数据集上的实验结果表明,所提出的框架在识别和定位异常组方面表现出色,这使其成为 Gr-GAD 的有前景的解决方案。

9. Tango: rethinking quantization for graph neural network training on GPUs 阅读原文

https://www.aminer.cn/pub/64cb267b3fda6d7f06ab6aaf/

这篇论文介绍了一种名为 Tango 的图形神经网络 (GNN) 训练系统,用于在 GPU 上进行量化训练。随着 GNN 在图相关任务中的优越性能,量化被广泛用于加速 GNN 计算,但是量化训练面临着前所未有的挑战。当前的量化 GNN 训练系统通常比其全精度对应系统需要更长的训练时间,原因有两个:(i) 解决精度挑战导致开销过大,(ii) 量化所暴露的优化潜力没有得到充分的利用。Tango 通过三个贡献重新思考了 GNN 训练中的量化挑战和机会:首先,我们引入了保持量化 GNN 训练精度的效率规则;其次,我们设计和实现了量化感知的原始操作和跨原始操作优化,可以加速 GNN 训练;最后,我们将 Tango 集成到流行的 Deep Graph Library(DGL) 系统中,并在各种 GNN 模型和数据集上展示了其优于当前最先进方法的性能。

10. VN-Solver: Vision-based Neural Solver for Combinatorial Optimization over Graphs 阅读原文

https://www.aminer.cn/pub/64d1bde83fda6d7f06ec3cb6/

这篇论文介绍了一种基于视觉的神经网络求解器 (VN-Solver),用于解决组合优化问题。常见的神经组合求解器通常以邻接矩阵的形式消耗输入,而 VN-Solver 则通过“观察图形模式”来解决图形优化问题,这是一种概念上全新的方法。论文结果表明,这种基于视觉的方法的表现不仅非同寻常,而且与基于矩阵的方法相当,这为开发数据驱动的优化求解器开辟了新的途径。


如何使用ChatPaper?

作为科研人员,每天需要检索和浏览大量的学术文献,以获取最新的科技进展和研究成果。然而,传统的检索和阅读方式已经无法满足科研人的需求。

ChatPaper是一款集检索、阅读、知识问答于一体的对话式私有知识库,AMiner希望通过技术的力量,让大家更加高效地获取知识。

👉ChatPaper使用教程

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值