图神经网络
文章平均质量分 78
BUPT-WT
不积硅步无以至千里,不积小流无以成江海
展开
-
GGNN(Gated Graph Sequence Neural Networks)
GGNN研究意义:1、提升在图结构中长期的信息传播2、消息传播中使用GRU,使用固定数量的步骤T,递归循环得到节点表征3、边的类型,方向敏感的神经网络参数设计4、多类应用问题,展示了图神经网络更多的应用以及强大的表征能力本文主要结构如下所示:一、Abstract 本文提出使用GRU来更新图的节点信息,在一些数据任务上验证了模型的有效性二、Introduction 对图神经网络进行扩展,解决序列输出任务,提出GGS-NNS模型三、...原创 2021-02-10 18:22:38 · 6215 阅读 · 3 评论 -
Graph Attention Networks
GAT研究意义:1、图卷积神经网络常用的几个模型之一(GCN、GAT、GraphSAGE)2、将Attention机制引入到图神经网络中3、支持归纳式学习和直推式学习4、模型具有一定的可解释性本文主要结构如下所示:一、摘要Abstract二、Introduction三、Gat Architecture四、Evalution五、Conclusion...原创 2021-01-30 19:59:36 · 284 阅读 · 0 评论 -
Semi-supervised classification with graph convolutional networks
研究意义:1、在拓扑图中 可以有效的提取空间特征2、拓扑图中每个顶点的相邻顶点数目可能不同,所以不能用同样大小的卷积核进行卷积操作本文主要结构如下所示:一、Abstract提出将卷积操作应用到图上,通过图频域的近似分析来建模学习图的局部结构和结点特征。二、Introduction介绍图上结点分类的半监督问题,通过神经网络学习结点的表式,半监督定义loss function ,提出了图上神经网络传播规则并将其与图频域分析联合起来三、Fast Approxima...原创 2021-01-27 09:48:53 · 3725 阅读 · 0 评论 -
Translating Embedding for Modeling Multi-relational Data
研究意义:1、学到了实体(entity)和关系(relation)的embedding表示2、模型简单而有效,容易训练3、启发了整个Trans系列知识表示学习,代表性工作有transH,transR,transD4、引用量较高本文主要结构如下所示:一、Abstract 提出基于一对多关系数据的建模,将实体和关系映射到低维空间 摘要主要说明以下几个主要的关键点: 1、使用低维向量表示三元组数据(知识图谱)的实...原创 2021-01-16 12:16:13 · 817 阅读 · 0 评论 -
metapath2vec: Scalable Representation Learning for Heterogeneous Networks
研究意义:1、将Random Walk + Skip2gram 的框架扩展到异质图,以及图和在多种类型的节点之间定义节点的上下文,从而产生好的训练语料2、基于异质图的随机游走算法表达了不同节点之间的语义和结构关联3、早期研究异质图学习的工作,扩展了更多类型的网络图表示学习研究本文主要结构如下所示:一、Abstract基于传统图的图表征学习算法无法很好的应用到点和边有多个类型的异质图,提出本文的算法metapath2vec,具体如下:1、强调前人研究的模型都是基于同质网络...原创 2020-12-29 10:32:32 · 763 阅读 · 0 评论 -
GraphSAGE: Inductive Representation Learning on Large Graphs
GraphSAGE研究意义:1. 图卷积神经网络最常用的几个模型(GCN、GAT、GraphSAGE)2、归纳式学习(inductive learning)3、不同于之前的学习node embedding,提出学习aggregators等函数的方式4、探讨了多种aggregator方式(mean、pool、lstm)5、图表征学习的经典baseline论文主要结构:一、摘要Abstract介绍图的广泛应用,主要引出本文的motivations是做图的归纳式学习,通过学习.原创 2020-12-22 10:38:52 · 701 阅读 · 0 评论