Graph Represent Learning(也叫Graph Embedding)

怎样将图中的每一个Node表示成一个Vector呢?

假设有一图 G G G:

  • V V V是顶点集合
  • A A A是图的邻接矩阵
  • 节点上的其余信息我们都没使用到

主要有三步:

  1. 定义一个可以将Graph变为Vector的编码器encoder
  2. 定义一种node similarity function(用于测量Graph中两个Node之间的相似度)
  3. 调参,使得我们encoder最优,我们的目的是使原始空间Graph中两个Node的相似度等于embedding space中两个向量的相似度:
    s i m i l a r i t y ( u , v ) ≈ z v T z u similarity(u, v) \approx z_v^T z_u similarity(u,v)zvTzu
    在这里插入图片描述
    在这里插入图片描述

怎样定义Node Similarity呢?

当两个节点满足以下特征的时候,我们是不是可以认为这两个节点就更相似呢?

  1. 两个节点之间有边
  2. 有共同的邻居
  3. 有相似的结构

我们可以按照以下方式,选择怎样定义节点相似度:

  1. Adjacency-based similarity
  2. Multi-hop similarity
  3. Random walk approaches

1. Adjacency-based similarity

在这里插入图片描述

2 Multi-hop similarity

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

3. Random walk approaches

在这里插入图片描述

在这里插入图片描述

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值