GNN论文周报|来自华中科技大学、UCLA、浙江大学、康奈尔大学等机构前沿论文研究

图神经网络(GNN)是一类专门针对图结构数据的神经网络模型,在社交网络分析、知识图谱等领域中取得了不错的效果。近来,相关研究人员在GNN的可解释性、架构搜索、对比学习等方面做了很多探究。

我们精选了10篇GNN领域的优秀论文,来自华中科技大学、UCLA、浙江大学、康奈尔大学等机构。

为了方便大家阅读,只列出了论文标题、作者、AI华同学综述等信息,如果感兴趣可复制链接查找,PC端数据同步(收藏即可在PC端查看),每日新论文也可登录小程序查看。

1.GAT-COBO: Cost-Sensitive Graph Neural Network for Telecom Fraud Detection

作者:Xinxin Hu,Haotian Chen,Junjie Zhang,Hongchang Chen,Shuxin Liu,Xing Li,Yahui Wang,Xiangyang Xue

AI华同学综述(大模型驱动):在本文中,我们提出了一种为图解析问题设计的图存储网络。首先,我们设计了一个基于贪婪的分类器来学习所有节点嵌入。然后,我们将这些嵌入传递给一个精心设计的成本敏感的学习者,该模型主要关注少数群体。实验结果表明,我们的方法优于最先进的基线和基于基线的欺诈探测器。此外,我们的模型也有助于解决通用高效的多项式回退问题。

论文链接:https://www.aminer.cn/pub/64264f7b90e50fcafd68dd72

2.Edge Ranking of Graphs in Transportation Networks using a Graph Neural Network (GNN)

作者:Debasish Jana,Sven Malama,Sriram Narasimhan,Ertugrul Taciroglu

AI华同学综述(大模型驱动):本文提出了一种基于图的近似方法来估计交通网络的边界。我们证明了该方法在计算上是有效的,特别是对于大型图。该方法的评估是在几张合成图和一个实际的运输数据集上进行的。我们表明,这种框架可以将近似边界的估计比传统方法更快地估计。

论文链接:https://www.aminer.cn/pub/64264f7b90e50fcafd68df9e

3.When to Pre-Train Graph Neural Networks? An Answer from Data Generation Perspective

作者:Yuxuan Cao,Jiarong Xu,Carl Yang,Jiaan Wang,Yunchao Zhang,Chunping Wang,Lei Chen,Yang Yang

AI华同学综述(大模型驱动):本文介绍了一种通用框架W2PGNN来解决如何训练图的转换问题。它首先将预制数据纳入图的原始结构,每个原始构造了一个基本传输模式,然后将其转化为来自任何发电场的输出空间中的生成器空间。通过这种方式,可以计算先前培训数据的可行性。我们给出了第一个应用程序的理论解决方案和实验证据,以及第二个应用程序的结果。

论文链接:https://www.aminer.cn/pub/6424fe3390e50fcafd78b58e

4.Who You Play Affects How You Play: Predicting Sports Performance Using Graph Attention Networks With Temporal Convolution

作者:Rui Luo,Vikram Krishnamurthy

AI华同学综述(大模型驱动):本文描述了一种新的深度学习方法,用于预测运动员在比赛中的表现。这种方法利用运动员统计数据和比赛期间的互动来构建动态的运动员交互图,并使用图注意力网络来捕获每个运动员对其他运动员的注意力。为了处理多变量运动员统计时间序列,该方法还引入了一个时间卷积层,使得模型能够具有时间预测能力。作者使用真实的运动数据评估了该方法的性能,并探讨了它在体育博彩中的潜在用途,为体育分析和博彩行业提供了有价值的见解。该方法有望推动运动员表现预测的最新技术,并为体育分析和博彩行业提供有益的洞见

论文链接:https://www.aminer.cn/pub/6424fe3490e50fcafd78b7d3

5.GNNBuilder: An Automated Framework for Generic Graph Neural Network Accelerator Generation, Simulation, and Optimization

作者:Stefan Abi-Karam,Cong Hao

AI华同学综述(大模型驱动):在本文中,我们提出了第一个自动化的、定制的、终端GNN助推器生成框架。它具有四个优点:(1)可以任意地为一个或多个GNN模型生成引擎;(2) 支持最终的编码、模拟、激励优化和硬件部署;(3) 带有对其生成的引擎进行精确性能建模的指示图像。该框架是开放的,可下载到http://anonymous.4open.science/r/gnn builder 83B4.

论文链接:https://www.aminer.cn/pub/6424fe3390e50fcafd78b58f

6.Cross-utterance ASR Rescoring with Graph-based Label Propagation

作者:Srinath Tankasala,Long Chen,Andreas Stolcke,Anirudh Raju,Qianli Deng,Chander Chandak,Aparna Khare,Roland Maas,Venkatesh Ravichandran

AI华同学综述(大模型驱动):我们提出了一种基于图的ASR最佳假设传播的新方法。相反,传统的神经语言模型(LM)的ASR重排序/重新排序模型采用了单独的方法。我们的方法侧重于声音信息,并在话语之间进行重排序。实验表明,该方法的性能与具有不同的主导词不同,以及跨区域的公平性。我们的方法提供了一个低成本解决方案来有效地减轻大多数人权偏好的误差。

论文链接:https://www.aminer.cn/pub/64225b7d90e50fcafde14e6a

7.Contrastive Learning Is Spectral Clustering On Similarity Graph

作者:Zhiquan Tan,Yifan Zhang,Jingqin Yang,Yang Yuan

AI华同学综述(大模型驱动):对比学习是一种强大的自我监督学习方法,但我们有有限的理论理解。在本文中,我们证明了与标准InfoNCE损失的相似性相当于感光聚类。使用这种等价物作为基础,我们将我们的分析扩展到CLIP模型,并对这些相似的多向对象结构进行细化。受我们理论洞察启发,我们引入核混合失真,添加新的核函数,这些函数优于标准方差字符串。
论文链接:https://www.aminer.cn/pub/64225b7d90e50fcafde14dac

8.Transformer and Snowball Graph Convolution Learning for Biomedical Graph Classification

作者:Jinlong Hu,Yangmin Huang,Shoubin Dong

AI华同学综述(大模型驱动):生物医学图分类器为描述和建模复杂系统提供了图或网络。神经网络已经开发来学习和预测基于结构化数据的深度学习方法。在本文中,我们提出了一种新的三角形变换器和雪花编码网络(TSEN)。

论文链接:https://www.aminer.cn/pub/6423ac7890e50fcafd55f10e

9.GANTEE: Generative Adversatial Network for Taxonomy Entering Evaluation

作者:Zhouhong Gu,Sihang Jiang,Jingping Liu,Yanghua Xiao,Hongwei Feng,Zhixu Li,Jiaqing Liang,Jian Zhong

AI华同学综述(大模型驱动):传统的分类扩展任务旨在找到现有的算法中新出现的概念的位置。然而,这些方法面临两个缺陷。以前的方法优于以前的方法,因为它们浪费了时间,而大多数新来的想法实际上是噪音想法。此外,他们还遭受了低效率,因为模型只能从现有的算法中收集训练样本,这限制了模型的处理能力。本文提出了一种封闭的范式,称为生成敌对网络,用于解决这些缺陷。在这个框架下,由区分性模型和生成模型构建了一个生成的敌对网络。

论文链接:https://www.aminer.cn/pub/64225b7590e50fcafde11f44

10.Topological Pooling on Graphs

作者:Yuzhou Chen,Yulia R. Gel

AI华同学综述(大模型驱动):图神经网络在各种图学习任务中取得了显著的成功,从图分类到误报检测。最近有许多方法采用了图池挖掘操作,目的是在图的表示学习过程中保留图属性和结构特征。然而,大多数现有的图池挖掘操作存在局限性地依赖于节点级邻接权重和嵌入,这导致无法编码丰富特征结构和节点的属性。通过唤起持续同质性的机器,我们提出了一种新的特征集成机制,该机制允许我们对本地和全球层面有效地整合隐藏特征信息。特别是,我们在11个不同的基线数据集上对18个基线模型进行了实验,表明 Wit Topo Pool明显优于所有竞争对手。

论文链接:https://www.aminer.cn/pub/642b8bec8bd3a24f48d27505

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值