图模型
文章平均质量分 88
weixin_40675092
这个作者很懒,什么都没留下…
展开
-
论文学习笔记:node2vec: Scalable Feature Learning for Networks
表征学习捕获网络中连接模式的多样性node2vec:学习网络中节点的连续特征表达,将节点映射到一个低维特征空间。最大化的保留节点邻域。在多标签分类和边预测优于当前的state-of-the-art技术。亮点:通过引入两个参数 p 和 q, 将宽度优先搜索和深度优先搜索引入了随机游走序列的生成过程 . 宽度优先搜索注重邻近的节点并刻画了相对局部的一种网络表示 , 宽度优先中的节点一般会出现很多次 , 从而降低刻画中心节点的邻居节点的方差 ; 深度优先搜索反应了更高层面上的节点间的同质性 .paper.原创 2021-07-09 18:16:02 · 111 阅读 · 0 评论 -
论文学习笔记:Attention-Based Graph Neural Network For Semi-supervised Learning
图卷积对图中节点的特征和图结构建模,本文中作者首先移除图卷积中的非线性变换,发现在GCN中起关键作用的是传播层,而不是感知层。然后提出AGNN模型,在传播层引入attention机制,使中心节点特征的聚合过程中,对邻居节点的注意力产生差异。模型在benchmark测试用的文献引用数据集上的效果优于其他state-of-the-art的方法。并且,通过传播矩阵计算节点之间的关联强度,得到了一些更有趣的信息。在预测目标节点类别时,与预测类别相同的邻居节点将会在此过程中,承担了比其他邻居节点更重要的角色。Gr.原创 2021-06-25 18:35:59 · 1339 阅读 · 0 评论 -
论文学习笔记:Deep Insights into GCN for Semi-Supervised Learning
自从深度学习兴起,许多机器学习中有趣的问题重新被提起。最近提出的图卷积完美的整合了局部顶点特征和图拓扑信息。虽然GCN优于其他state-of-the-art的方法,但是GCN的工作机制并不清晰。本文介绍来自AAAI 2018的工作,深入的剖析了图卷积层中是什么在起作用,并且针对少量标签数据集上的GCN训练,提出Co-Training和self-Training方法。Graph ConvKipf & Welling提出的图卷积包括下面几步:1.利用图邻接矩阵创建图卷积滤镜。每个节点增加sel.原创 2021-06-25 18:33:29 · 162 阅读 · 0 评论 -
论文学习笔记:Large-Scale Learnable Graph Convolutional Networks
来自KDD 2018 的工作,将graph数据转化成 grid-like 结构数据,可以直接传入卷积层。并且提出Sub-Graph Training,一种有效的根据图顶点抽样,得到子图训练模型的方法。解决图相关的深度学习模型内存和计算问题。本方法在各个baseline数据集上取得了state-of-the-art的效果。Learnable Conv on GraphLGCN 也是从中心节点邻居的特征中聚合出新的特征表达,但与GCN不同之处在于,它是将邻居节点的特征,结合中心节点本身的特征,转化为gri.原创 2021-06-25 18:29:48 · 407 阅读 · 0 评论 -
论文学习笔记: Graph Attention Network
本文作者提出GATs方法,利用一个隐藏的self-attention层,来处理一些图卷积中的问题。不需要复杂的矩阵运算或者对图结构的事先了解,通过叠加self-attention层,在卷积过程中将不同的重要性分配给邻域内的不同节点,同时处理不同大小的邻域。作者分别设计了inductive setting和transductive setting的任务实验,GATs模型在基线数据集Cora、Citeseer、Pubmed citation和PPI数据集上取得了state-of-the-art的结果。GAT.原创 2021-06-25 18:26:33 · 203 阅读 · 0 评论 -
论文学习笔记:Simplifying Graph Convolutional Networks
原文连接 https://arxiv.org/pdf/1902.07153.pdf本文作者提出SGC,通过移除非线性变换和压缩卷积层之间的权重矩阵来降低 GCN 的复杂性。并且作者在理论上分析了得到的线性模型,认为它实际上是一个固定的低通滤镜,后接线性分类器。实验表明,这种简化,并且不会对下游分类器的准确度带来负面影响。因此,模型可以推广到更大的数据集,并且比FastGCN产生高达两个数量级的加速。GCN中的网络层有个重要的功能,在每一层中,隐含状态的表达是由一步邻居的特征平均得到的。也就是说,K层之原创 2021-06-25 18:19:26 · 223 阅读 · 0 评论 -
# 论文学习笔记:Leveraging Meta-path based Context for Top-N Recommendation with A Neural Co-Attention Mode
以往的基于HIN的推荐模型存在两个不足。几乎不学习路径或者元路径的显式表达;只考虑user-item交互,而忽视了元路径与涉及到的user-item pair之间的相互影响。本文是来自KDD 2018的工作,不仅学习user和item的表达,还显式的表示user-item的基于元路径的上下文信息,并且提出co-attention机制来相互促进,改善三者的表达效果。预备知识隐式反馈:存在n个users U={u1,...,un}\mathcal{U}=\{u_1,...,u_n\}U={u1,....原创 2021-06-25 18:15:57 · 1072 阅读 · 0 评论 -
论文学习笔记:GraRep
GraRep:学习加权图顶点的低维向量表示亮点:通过操纵不同的全局转移矩阵AkA^kAk,捕获顶点的k-step relational information(其中k可以取不同值),得到k阶局部信息,整合这些局部信息,得到全局表达。缺点:计算复杂度O(∣V∣)O(|V|)O(∣V∣),无法推广到大型网络contribute提出学习图节点潜在向量表达的模型,能够捕获全局结构信息从概率观点对DeepWalk中同一采样的理解分析了负抽样相关的Skip-Gram模型的不足。GreRep模型图相关原创 2021-06-25 17:53:09 · 613 阅读 · 0 评论 -
论文学习笔记:DeepWalk
DeepWalk无监督学习网络中节点的潜在表示输入:网络输出:节点的低维向量表示亮点:(1)random walk提取中心顶点的邻居序列,可并行(设置多个walkers)。(2)使用language model Skip-Gram算法a是输入的Karate Graph, b是输出二维潜在向量表示,节点颜色代表聚类的簇,左右两种表达具有惊人的相似性,而且b中线性可分。学习到的表示具有以下特点适应性社区意识,潜在特征向量之间的距离应该能够反应网络中社交成员之间的社交相似性。低维度连续.原创 2021-06-25 17:49:48 · 116 阅读 · 0 评论