Algorithms of GraphEmbedding

GraphEmbedding

本篇笔记简要介绍几种图嵌入算法的原理,不涉及推理和code。想要深入了解的朋友可以点击以下链接。
https://github.com/totoroyun/GraphEmbedding
https://zhuanlan.zhihu.com/weichennote

基础知识——skip-gram

这里简单介绍图嵌入算法中会使用到的Word2Vector中的skip-gram算法。
词嵌入就是将高维稀疏的向量映射到低维稠密的空间中。
算法的原理:经常一起出现的词意义相近,经常出现在同一个词附近的词意义相近。
Skip-gram算法是给定中心词,计算其他词出现在它附近的概率。具体做法是,每个单词作为中心词,确定取词窗口即确定该中心词附近的单词,作为算法的训练样本,通过前向神经网络输出每个词作为邻居词的概率,再通过训练样本对的真实邻居词反向传播学习权重矩阵。
权重矩阵即是每个词的向量表达,Skip-gram选择靠近输入层的权重矩阵作为嵌入结果。这是每个单词作为中心词的向量表达,靠近输出层的权重矩阵是每个词作为附近词的向量表达。

1.DeepWalk

DeepWalk的思想类似word2vec,使用图中节点与节点的共现关系来学习节点的向量表示,使用随机游走(RandomWalk)的方式在图中进行节点采样构建序列库。
优化的目标是给定每个顶点条件下,令其近邻顶点(如何定义近邻顶点很重要)出现的概率最大。
首先将每个点作为起始点进行随机游走,重复多次,获得顶点关系序列库;
然后将每个点作为中心点,确定参数取词窗口从而确定训练样本对;
使用Word2Vector学习节点的向量表示。
在这里插入图片描述

2.Line

LINE也是一种基于邻域相似假设的方法,考虑一阶和二阶相似度,1阶相似性认为两个顶点的边权重越大,两个顶点越相似;2阶相似性认为两个顶点的共同邻居越多,两个顶点越相似。
1阶相似度只适用于无向无权图。
2阶相似度可用于有向带权图。
令 pu 表示顶点 u与所有其他顶点间的1阶相似度,则 pu 与 pv 的2阶相似度可以通过pu 和 pv 的相似度表示。若pu 和 pv 之间不存在相同的邻居顶点,则2阶相似度为0。

在这里插入图片描述
优化目标:
一阶相似度:
我们认为两点越相似嵌入的向量在低纬空间中应该越接近,即P值接近1,经验概率是真实的相似度,目标是希望两者分布近似,即学习向量后计算的概率逼近真实概率,通过最小化目标函数反向传播更新权重。目标函数类似交叉熵。
在这里插入图片描述
我们认为给定中心点,该点的邻居点出现的条件概率应该比其他点大,经验概率是网络中真实的条件概率(与权重相关),目标是希望两者分布近似,即学习向量后计算的条件概率逼近真实条件概率,通过最小化目标函数反向传播更新权重。
这里的二阶相似度类似于DeepWalk中训练样本对只有顶点i以及与i直接连接的点j。
注:一个顶点作为源点和近邻点的时候是拥有不同的embedding向量的(N2V使用的是相同的向量);
一阶相似度和二阶相似度是算法的方法参数,使用时需要选择order。

3.Node2Vector

N2V在DeepWalk的基础上加入边权,并控制游走的内外向,综合考虑了DFS邻域和BFS邻域。优化的目标是给定每个顶点条件下,令其近邻顶点(如何定义近邻顶点很重要)出现的概率最大,这一点与DeepWalk一致,不过N2V的关键在于有偏的采样策略,它使用了更丰富的网络信息,构建的序列库与DeepWalk不同。适用于有向带权网络。
p,q一般采用网格搜索设置。
在这里插入图片描述

4.SDNE

5.Struc2Vec

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值