SDNE: 阿里应用深度学习进行图嵌入,构造凑单算法模型

本文介绍 Structural Deep Network Embedding ,以下简称 SDNE,以半监督的方式用深度神经网络来做图嵌入。

模型解读

论文指出学习网络表示具有三大难点:

  1. 高度非线性:网络结构是高度非线性的,使用浅层网络无法捕捉高度非线性的网络结构。
  2. 结构捕捉:同时捕捉到局部结构与全局结构。
  3. 稀疏性:大部分真实的网络都是稀疏的,仅仅利用网络中的部分连接关系建模效果还不够好。

SDNE 的目标是设计一个可以学习到一阶相似度与二阶相似度的模型。一阶相似度与二阶相似度的概念与之前博客【图嵌入】Graph Embedding 方法之 LINE 原理解读中描述的相同:

  • 一阶相似度:描述边相连的节点对之间具有的相似性。
  • 二阶相似度:拥有共同邻居但是不直接向相连的两个节点具有的相似性。

也就是说一阶相似度主要反映了 Graph 的局部特征, 二阶相似度反映了 Graph 的全局特征。

为此,作者设计的模型如下图所示:

在这里插入图片描述

二阶相似度学习(无监督学习部分)

先看图中的左半部分:

在这里插入图片描述

其输入是 x i x_i xi 输出是 x ^ i \hat x_i x^i ,这实际上是一种自编码器,其目标是学习一种函数映射:
f ( x ) ≈ x f(x) \approx x f(x)x
自编码器没有标签数据,所以是一种非监督学习,前半部分为编码器,后半部分为解码器。在实际应用中通常会使用自编码器的前半部分,即输入 x i x_i xi 到得到 y i ( K ) y_i^{(K)} yi(K) 的部分,此部分的公式为:
y i ( 1 ) = σ ( W ( 1 ) x i + b ( 1 ) ) y i ( k ) = σ ( W ( k ) y i ( k − 1 ) + b ( k ) ) , k = 2 , . . . , K y_i^{(1)}=\sigma{(W^{(1)}x_i+b^{(1)})} \\ y_i^{(k)}=\sigma{(W^{(k)}y_i^{(k-1)}+b^{(k)})}, k=2,...,K yi(1)=σ(W(1)xi+b(1))yi(k)=σ(W(k)yi(k1)+b(k)),k=2,...,K
其中, x i x_i xi 为输入值,本质是节点 i i i 的邻接矩阵(后面会解释)。上面公式中的 y i ( k ) y_i^{(k)} yi(k) 为第 k k k 层的第 i i i 个节点的输出值,而 W ( k ) W^{(k)} W(k) 为第 k 层的参数矩阵, b k b^{k} bk 为第 k 层的偏置项。最终经过编码得到节点的 Embedding 向量 y i ( K ) y_i^{(K)} yi(K)之后,再经过与编码器对称的网络结构得到输出值 x ^ i \hat x_i x^i

自编码器的目标是最小化输入与输出的重构误差,所以损失函数为:
L = ∑ i = 1 n ∣ ∣ x i ^ − x i ∣ ∣ 2 2 \mathcal{L}=\sum_{i=1}^n{||\hat{x_i}-x_i||^2_2} L=i=1

  • 2
    点赞
  • 7
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值