图神经网络
文章平均质量分 91
图神经网络
静心问道
这个作者很懒,什么都没留下…
展开
-
TMER模型
TMER论文名称:Temporal Meta-path Guided Explainable Recommendation论文地址:https://arxiv.org/pdf/2101.01433.pdf由于知识图谱的能够提供丰富的信息,在提升推荐系统的解释性方面进行很多的研究。目前的解释主要是针对静态图,忽略了user-item动态性。目前的时间序列推荐主要集中在user自身内部的序列交互。在本文,我们提出Temporal Meta-path Guided Explainable Recommend原创 2022-02-21 10:18:13 · 2347 阅读 · 0 评论 -
ARMAConv
ARMAConv论文名称: Graph Neural Networks with Convolutional ARMA Filters论文地址: https://arxiv.org/pdf/1901.01343.pdf在本文介绍一下auto-regressive moving average (ARMA) filter, 它提供more flexible frequency response, 对噪声更加稳健,能够捕捉全局的图结构。它会使得训练过程更加高效, localized in the node原创 2022-02-21 10:15:39 · 1072 阅读 · 1 评论 -
GNNExplainer
GNNExplainer论文名称:GNNExplainer: Generating Explanations for Graph Neural Networks论文地址:https://arxiv.org/abs/1903.03894GNN使用节点的特征和图的结构作为信息沿着边传递。这种整合使得模型的可解释性更加困难。我们建议的模型GNNEXPLAINER,是一种与模型无关的,可以为任何的GNN模型提供解释。GNNEXPLAINER能够识别子图的结构和节点的特征,然后,对样本的实例作出解释。GNNEX原创 2022-02-05 23:26:59 · 2737 阅读 · 0 评论 -
GINConv
GINConv1. Weisfeiler-Lehman Test论文名称:Weisfeiler-Lehman Graph Kernels论文地址:https://www.jmlr.org/papers/volume12/shervashidze11a/shervashidze11a.pdfWeisfeiler-Lehman Test用于判断两个图是否同构。Weisfeiler-Lehman Test是一个迭代的过程, Algorithm 1给出简洁的算法描述。这个算法的关键思想是对node节原创 2022-02-03 19:05:58 · 2232 阅读 · 0 评论 -
GATConv
论文名称:Graph Attention Networks论文地址:https://arxiv.org/abs/1710.10903本文介绍GATs算法,它是一种对当前网络结构的一种创新,使用masked self-attention layers解决当前图卷积的不足。通过stacking layers能够聚合邻居节点的特征,不需要进行复杂的矩阵运算和图结构的先验知识。通过这种方式,我们解决spectral-based graph一些挑战,使得我们模型适用于inductivte和tansductive任原创 2022-02-01 18:10:09 · 4753 阅读 · 0 评论 -
HGTConv
HGTConv论文名称:Heterogeneous Graph Transformer论文地址:https://arxiv.org/pdf/2003.01332.pdf在本文,我门使用Heterogeneous Graph Transformer (HGT) 架构对 Web-scale 异构网络进行建模。为了对异构网络进行建模,我们设计节点和边存在依赖关系参数,对每条边进行attention操作,HGT能够表征不同类型的节点和边。为了处理动态异构图,我们引进相对时间的编码技巧,它能够任意持续捕捉结构原创 2022-02-01 14:56:56 · 2422 阅读 · 0 评论 -
MetaPath2Vec
MetaPath2Vec论文名称:metapath2vec: Scalable Representation Learning for Heterogeneous Networks论文地址:https://ericdongyx.github.io/papers/KDD17-dong-chawla-swami-metapath2vec.pdf我们研究是解决异构网络模型的学习问题。当前卷积操作不适合处理多种类型的节点和边。我们开发了两种可扩展的表示学习模型,称作metapath2vec和metapath2原创 2022-01-28 23:10:37 · 1428 阅读 · 0 评论 -
Node2Vec
Node2Vec论文名称:node2vec: Scalable Feature Learning for Networks论文地址:https://www.kdd.org/kdd2016/papers/files/rfp0218-groverA.pdfNode2Vec是用于学习网络节点的连续特征表示。node2vec将节点映射为低维特征表示,最大化网络邻居节点的似然表示。定义一组弹性的邻居节点的概念,设计有偏的随机游走策略,学习探索各种各样的邻居表示。1.FEATURE LEARNING FRAME原创 2022-01-25 09:15:27 · 1448 阅读 · 1 评论 -
SAGEConv
SAGEConv论文名称:Inductive Representation Learning on Large Graphs论文链接:https://arxiv.org/pdf/1706.02216.pdf现在存在方法具有内在transductive,不能generalize未见到的节点,。我们提出GraphSAGE是基于inductive开发的,对于未见到数据具备泛化能力。在训练的过程中,对邻居的节点采用抽样的方式,而不是对所有的节点进行训练。GraphSAGE学习的主要方法是收集局部的邻居信息,原创 2022-01-15 16:21:17 · 2343 阅读 · 0 评论 -
HANConv
HANConv论文名称: Heterogeneous Graph Attention Network论文链接: https://arxiv.org/pdf/1903.07293.pdf异构网络的Attention包括节点层面和语义层面的, 具体来说节点层面是指基于metapath节点和它邻居之间的重要性. 而语义层面是指学习不同metapath之间的重要性.节点层面Attention由于是异构网络,不同的节点类型有不同的特征,因此对每种类型的节点ϕi\phi_iϕi,节点类型转移矩阵Mϕi\t原创 2022-01-15 10:35:08 · 495 阅读 · 0 评论