![](https://img-blog.csdnimg.cn/20201014180756738.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
图卷积
文章平均质量分 91
weixin_40675092
这个作者很懒,什么都没留下…
展开
-
论文学习笔记:Semi-Supervised Classification with Graph Convolutional Network
原文链接:Semi-Supervised Classification with Graph Convolutional Network代码实现:https://github.com/tkipf/pygcn一、亮点1.分层传播规则,模型f(A,X)f(A, X)f(A,X)直接编码结构信息,不需要显式的使用图正则。2.节点的半监督分类实现二、显式的图正则基于图的半监督学习问题,需要通过显式的基于图的正则化项来将标签信息平滑到整个图上。在损失函数中使用Laplace正则化项L=L0+λLreg.原创 2021-06-27 11:19:01 · 90 阅读 · 0 评论 -
论文学习笔记:GraphSAGE
本文介绍一个inductive node embedding的框架——GraphSAGE。算法与其他transductive learning方法的优势在于,学习一系列能够聚合邻居节点特征,生成中心节点表示的aggregator。而不是只学习当前训练集的node embedding。所以模型可以很好的推广到新的graph上。算法在citation和Reddit数据集上取得了art of state的表现。并且在模型在完全没见过的图数据上表现出不错的泛化能力。一、GraphSAGE回顾原始 GCN,每层.原创 2021-06-27 11:18:04 · 394 阅读 · 0 评论 -
论文学习笔记:Modeling Relational Data with Graph Convolutional Networks
原文:Modeling Relational Data with Graph Convolutional Networks使用 R-GCN 恢复知识库,包含节点分类和连接预测两个任务。节点分类直接使用R-GCN训练节点的表示进入softmax;连接预测是一个autoencoder,R-GCN产生节点的潜在表示,张量分解模型DistMult探索学习到的节点表达,预测边。1.亮点1.建模多类型连接关系(边有多个类型)的图数据2.两个正则化track2.模型我们使用G=(V,ε,R)G=(\mat.原创 2021-06-27 11:14:40 · 480 阅读 · 0 评论 -
论文学习笔记:Attention-Based Graph Neural Network For Semi-supervised Learning
图卷积对图中节点的特征和图结构建模,本文中作者首先移除图卷积中的非线性变换,发现在GCN中起关键作用的是传播层,而不是感知层。然后提出AGNN模型,在传播层引入attention机制,使中心节点特征的聚合过程中,对邻居节点的注意力产生差异。模型在benchmark测试用的文献引用数据集上的效果优于其他state-of-the-art的方法。并且,通过传播矩阵计算节点之间的关联强度,得到了一些更有趣的信息。在预测目标节点类别时,与预测类别相同的邻居节点将会在此过程中,承担了比其他邻居节点更重要的角色。Gr.原创 2021-06-25 18:35:59 · 1378 阅读 · 0 评论 -
论文学习笔记:Deep Insights into GCN for Semi-Supervised Learning
自从深度学习兴起,许多机器学习中有趣的问题重新被提起。最近提出的图卷积完美的整合了局部顶点特征和图拓扑信息。虽然GCN优于其他state-of-the-art的方法,但是GCN的工作机制并不清晰。本文介绍来自AAAI 2018的工作,深入的剖析了图卷积层中是什么在起作用,并且针对少量标签数据集上的GCN训练,提出Co-Training和self-Training方法。Graph ConvKipf & Welling提出的图卷积包括下面几步:1.利用图邻接矩阵创建图卷积滤镜。每个节点增加sel.原创 2021-06-25 18:33:29 · 179 阅读 · 0 评论 -
论文学习笔记:Large-Scale Learnable Graph Convolutional Networks
来自KDD 2018 的工作,将graph数据转化成 grid-like 结构数据,可以直接传入卷积层。并且提出Sub-Graph Training,一种有效的根据图顶点抽样,得到子图训练模型的方法。解决图相关的深度学习模型内存和计算问题。本方法在各个baseline数据集上取得了state-of-the-art的效果。Learnable Conv on GraphLGCN 也是从中心节点邻居的特征中聚合出新的特征表达,但与GCN不同之处在于,它是将邻居节点的特征,结合中心节点本身的特征,转化为gri.原创 2021-06-25 18:29:48 · 416 阅读 · 0 评论 -
论文学习笔记: Graph Attention Network
本文作者提出GATs方法,利用一个隐藏的self-attention层,来处理一些图卷积中的问题。不需要复杂的矩阵运算或者对图结构的事先了解,通过叠加self-attention层,在卷积过程中将不同的重要性分配给邻域内的不同节点,同时处理不同大小的邻域。作者分别设计了inductive setting和transductive setting的任务实验,GATs模型在基线数据集Cora、Citeseer、Pubmed citation和PPI数据集上取得了state-of-the-art的结果。GAT.原创 2021-06-25 18:26:33 · 206 阅读 · 0 评论 -
论文学习笔记:Simplifying Graph Convolutional Networks
原文连接 https://arxiv.org/pdf/1902.07153.pdf本文作者提出SGC,通过移除非线性变换和压缩卷积层之间的权重矩阵来降低 GCN 的复杂性。并且作者在理论上分析了得到的线性模型,认为它实际上是一个固定的低通滤镜,后接线性分类器。实验表明,这种简化,并且不会对下游分类器的准确度带来负面影响。因此,模型可以推广到更大的数据集,并且比FastGCN产生高达两个数量级的加速。GCN中的网络层有个重要的功能,在每一层中,隐含状态的表达是由一步邻居的特征平均得到的。也就是说,K层之原创 2021-06-25 18:19:26 · 228 阅读 · 0 评论