![](https://img-blog.csdnimg.cn/20201014180756918.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
Graph Embedding
ilikevegetable
Guts Over Fear
展开
-
[Graph Embedding] node2vec 论文笔记
文章目录[Graph Embedding] node2vecIntroductionnode2vec算法原理1. 目标函数2. 节点序列采样策略3. 参数解析4. 伪代码[Graph Embedding] node2vec在前面两篇文章中,我们分别介绍了DeepWalk 和 LINE,其中DeepWalk使用随机游走来扩展节点的领域。本文的node2vec的中心思想和DeepWalk很相似,作者对随机游走进行改写,使得通过改写的随机游走进行节点领域的遍历时,可以同时反应dfs(深度优先采样)和bfs(广原创 2020-10-31 13:15:25 · 407 阅读 · 0 评论 -
[Graph Embedding] LINE 论文笔记
文章目录[Graph Embedding] LINEIntroductionLINE算法原理1. LINE with First-order Proximity2. LINE with Second-order Proximity3. Combining first-order and second-order proximities优化方法Negative SamplingEdge Sampling其他问题Low degree verticesNew vertices[Graph Embedding]原创 2020-10-27 21:17:54 · 385 阅读 · 0 评论 -
[Graph Embedding] DeepWalk 论文笔记
[Graph Embedding] DeepWalkIntroduction图表示学习是将图(Graph)中节点在一个低维的连续的向量空间中表示出来,这种表示能够保留节点与邻居的相似性、节点的社区成员属性和节点的标签(labels)等。得到节点的向量表示就可以喂给下游的学习模型进行节点分类,边预测等任务。DeepWalk作为图表示学习的经典方法之一,核心方法就是通过对一定数量的节点做RandomWalk(随机游走),然后将得到的节点序列作为顶点的向量输入表示,通过使用skip-gram model 进原创 2020-10-26 21:32:58 · 347 阅读 · 0 评论