Deep Neural Networks for Learning Graph Representations——paper 笔记

和基于 SVD 的降维(将原始的高维空间通过线性变换隐射到低维空间上)不同,深度神经网络,比如 stacked auto-encoders 学习到的映射都是高度非线性的

论文开头,通过介绍 Deepwalk,说明如何将节点的表示转化成线性表示。 展示两种word 向量表示方法:1,负采样的skip-gram和基于PPMI矩阵的矩阵分解。

矩阵分解,利用词和词的共现矩阵来产生词向量表示,主要缺点是一些没有语义价值的如停用词,在产生词向量时发挥不成比例的作用。基于此有人提出了pointwise mutual information(PMI)矩阵。

 A stacked autoencoderPPMI矩阵是 当PMI为负值时,取0.

PPMI是个高维矩阵,可以通过 SVD 进行矩阵分解,产生 d 维因子。 U和V都是正交矩阵,中间是对角矩阵。

 

词向量可以表示为R,通过对角矩阵的top-d

  • 0
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 1
    评论
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值