网络表示学习初总结(Network embedding)

       Network embedding 目前是非常火热的一个研究方向,特别是从DeepWalk开始,后续引入了大量的工作,在数据挖掘领域没年都可以看到很多杰出工作,特别是北邮石川老师提出异质信息网络(HIN)后。随后很多领域专家老师提出了浅层模型(如矩阵分解,随机游走等等),深层模型(神经网络模型),笔者困扰为什么可以这样化分,化分标准是什么?如何进行下一步改进?

     已经有人证明了Deepwalk,Line , node2vec等等工作都属于矩阵分解范畴,都属于浅层模型,其后笔者在看一些论文综述时,也看到有学者说矩阵分解属于线性变换,因此学习到的低维表示,只有浅层特征,因此,引出了深层模型,以希望学习到更为复杂的表示或者特征,既非线性表示

     终于今天在看到其他博主关于矩阵分解的一些思考和见解时,意会到了化分标准。可以进一步参考其他博客内容特征值与特征向量矩阵分解

   对于AX =aX,其中A矩阵,X为特征向量,a为特征值,“由于矩阵相当于一个线性变换, 矩阵A与向量相乘,本质上对向量进行一次线性转换(旋转或拉伸),而该转换的效果为一个常数乘以向量(即只进行了拉伸)。当我们求特征值与特征向量的时候,就是为了求矩阵A能使哪些向量(特征向量)线性变换后只发生拉伸,不发生旋转。而拉伸的程度,自然就是特征值λ了‘’。
 

  • 1
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值