图表示
文章平均质量分 92
weixin_40675092
这个作者很懒,什么都没留下…
展开
-
论文学习笔记:node2vec: Scalable Feature Learning for Networks
表征学习捕获网络中连接模式的多样性node2vec:学习网络中节点的连续特征表达,将节点映射到一个低维特征空间。最大化的保留节点邻域。在多标签分类和边预测优于当前的state-of-the-art技术。亮点:通过引入两个参数 p 和 q, 将宽度优先搜索和深度优先搜索引入了随机游走序列的生成过程 . 宽度优先搜索注重邻近的节点并刻画了相对局部的一种网络表示 , 宽度优先中的节点一般会出现很多次 , 从而降低刻画中心节点的邻居节点的方差 ; 深度优先搜索反应了更高层面上的节点间的同质性 .paper.原创 2021-07-09 18:16:02 · 111 阅读 · 0 评论 -
论文学习笔记:Attention-Based Graph Neural Network For Semi-supervised Learning
图卷积对图中节点的特征和图结构建模,本文中作者首先移除图卷积中的非线性变换,发现在GCN中起关键作用的是传播层,而不是感知层。然后提出AGNN模型,在传播层引入attention机制,使中心节点特征的聚合过程中,对邻居节点的注意力产生差异。模型在benchmark测试用的文献引用数据集上的效果优于其他state-of-the-art的方法。并且,通过传播矩阵计算节点之间的关联强度,得到了一些更有趣的信息。在预测目标节点类别时,与预测类别相同的邻居节点将会在此过程中,承担了比其他邻居节点更重要的角色。Gr.原创 2021-06-25 18:35:59 · 1329 阅读 · 0 评论 -
论文学习笔记:Deep Insights into GCN for Semi-Supervised Learning
自从深度学习兴起,许多机器学习中有趣的问题重新被提起。最近提出的图卷积完美的整合了局部顶点特征和图拓扑信息。虽然GCN优于其他state-of-the-art的方法,但是GCN的工作机制并不清晰。本文介绍来自AAAI 2018的工作,深入的剖析了图卷积层中是什么在起作用,并且针对少量标签数据集上的GCN训练,提出Co-Training和self-Training方法。Graph ConvKipf & Welling提出的图卷积包括下面几步:1.利用图邻接矩阵创建图卷积滤镜。每个节点增加sel.原创 2021-06-25 18:33:29 · 161 阅读 · 0 评论