Graph Embedding学习笔记

本文是关于Graph Embedding的学习笔记,介绍了将图转化为低维向量以解决图问题的动机和方法。DeepWalk作为示例被详细探讨,它通过随机游走模拟节点关联并采用SkipGram模型进行节点表示。此外,还概述了问题设置的分类,包括同质图、异质图、附加信息图等,以及输出类型的分类,如节点嵌入、边嵌入等。最后,讨论了矩阵分解、深度学习、基于边重建的优化等技术在Graph Embedding中的应用。
摘要由CSDN通过智能技术生成

1. 简介

Graph Embedding指把graph转化为低维vector,使得Graph上的问题可以用vector上的方法处理。

这样做的意义在于:

  • 低维vector形式的算法相比原graph形式的算法所需算力更小
  • 低维vector形式的算法更多更强

我从一篇综述A Comprehensive Survey of Graph Embedding: Problems, Techniques and Applications入手,了解Graph Embedding的问题定义、技术方法。

综述从Problem Settings,也就是算法的输入输出,的角度对Graph Embedding问题做了分类;之后介绍了不同种类的Techniques。

我由于在相关方面的知识积累比较少,在看综述中的分析、方法时会感到对Graph Embedding问题仍然缺少一个清晰具体的概念,常常不知道所说的graph, node, edge含义到底是什么。所以我想先从一些更为具体的例子入手,先建立对Graph Embedding的一部分认识,再系统地把握Graph Embedding问题。

2. 例子:DeepWalk

DeepWalk的目标是得到node的latent representation,希望这个representation是低维的、连续的;与i.i.d.的sample不同,graph中的node之间有关联,比如在社交网

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值