图神经网络
文章平均质量分 94
gkm0120
路漫漫其修远兮,吾将上下而求索!
展开
-
【GAT】如何理解Graph Attention Network(注意力机制)?
引入masked self-attentional layers 来对不同的相邻节点分配相应的权重,既不需要矩阵运算,也不需要事先知道图结构。原创 2021-05-12 10:08:48 · 3267 阅读 · 0 评论 -
【图神经网络综述】A Comprehensive Survey on Graph Neural Networks(V4)
这篇文章介绍了 GNN 的背景知识、发展历史、分类与框架、应用等,详细介绍了各种模型与方法,包括公式、模型图示、算法等。翻译 2021-04-24 15:08:49 · 1345 阅读 · 0 评论 -
【LGCN】如何理解Large-Scale Learnable Graph Convolutional Networks?
将图结构数据变换到网格状数据中,使用传统的一维卷积进行卷积。变换的方式是:针对每个特征的大小,对邻居结点进行排序,取这个特征前k大的数作为它邻居这列特征的k个值。如果邻居不够,那就用0来补。这样就能得到该顶点的邻居信息,组成一个矩阵,然后使用一维卷积。原创 2021-04-10 16:22:08 · 746 阅读 · 0 评论 -
【GraphSAGE】如何理解Graph sample and aggregate(文章结构)?
针对的问题是之前的网络表示学习的transductive,从而提出了一个inductive的GraphSAGE算法。GraphSAGE是为了学习一种节点表示方法,即如何通过从一个顶点的局部邻居采样并聚合顶点特征,而不是为每个顶点训练单独的embedding。原创 2021-04-10 15:30:34 · 937 阅读 · 0 评论 -
【图卷积网络】Semi-Supervised Classification with Graph Convolutional Networks
将卷积扩展到图结构的数据中,能够得到比较好的数据表示,并且在半监督任务中也取得了不错的效果。翻译 2021-03-16 19:46:20 · 2213 阅读 · 0 评论