模型-GNN
文章平均质量分 92
图神经网络相关论文
nopSled
一周一更
展开
-
Self-supervised Graph Neural Networks via Diverse and Interactive Message Passing翻译
通过将图神经网络(GNN)从空间角度解释为消息的传递,它们的成功归因于拉普拉斯平滑。然而,通过堆叠多个层会导致严重的过度平滑问题。最近,在半监督学习中已经尝试了许多努力来克服这个问题。不幸的是,由于缺乏有监督信息,在无监督节点表示学习任务中更为严重。因此,大多数无监督或自监督的GNN经常采用一层GCN作为编码器。从本质上讲,过度平滑问题是因为消息传递过程被过度简化引起的,这会导致两个固有的限制:盲信息和均匀传递。在本文中,为了克服这些限制,提出了一种新的Diverse and Interactive Mes翻译 2022-08-11 11:57:33 · 232 阅读 · 0 评论 -
Heterogeneous Graph Attention Network翻译
现实世界中的数据通常与图结构(例如社交网络,引文网络和万维网)融合在一起。图神经网络(GNN)作为此类图数据的强大深度表示学习方法,在网络分析上表现出了卓越的性能,并引起了相当大的研究兴趣。例如,[10,20,24]利用深神网络来学习基于节点特征和图结构的节点表示。一些工作通过将卷积操作推广到图从而提出图卷积网络。深度学习的最新研究趋势是注意力机制,该机制可处理大小可变的数据,并鼓励模型专注于数据中的最突出部分。...翻译 2022-08-03 10:42:55 · 240 阅读 · 0 评论 -
A Comprehensive Survey on Graph Neural Networks翻译
近年来,深度学习彻底改变了许多机器学习任务,从图像分类和视频处理到语音识别和自然语言理解。这些任务中的数据通常在欧式空间中进行表示。但是,有越来越多的应用从非欧式域中生成数据,并将其表示为具有复杂关系和对象间相互依存的图。图数据的复杂性对现有的机器学习算法构成了重大挑战。最近,已经出现了许多有关将深度学习方法扩展到图数据的研究。在这项调查中,我们提供了数据挖掘和机器学习领域中图神经网络(GNN)的全面概述。我们提出了一种新的分类法,将最新的图形神经网络划分为四类,即循环图神经网络,卷积图神经网络,图自编码器翻译 2022-07-21 10:56:00 · 336 阅读 · 0 评论 -
Relational Graph Attention Networks翻译
我们研究了关系图注意力网络,这是一类将非关系图的注意力机制扩展到结合关系信息的模型,从而将这些方法开放到了各种各样的问题。我们对这些模型进行了彻底的评估,并在已建立的基准上进行比较。为了提供有意义的比较,我们重新训练关系图卷积网络,即关系图注意力网络的对照模型,并在相同条件下对其进行评估。我们发现,关系图注意力网络的性能比预期的要差,尽管某些配置对分子特性的建模略有好处。 我们提供了有关为什么会这样的见解,并提出了评估策略的修改,以及调查未来工作的方向。卷积神经网络(CNN)成功地解决了类似欧几里得域中的各翻译 2022-07-08 17:13:23 · 1259 阅读 · 0 评论