network embedding 网络表示学习的大致总结

 Big Data Challenge
数据随着时间呈现指数增长,计算力也呈指数增长,但这是在数据非连接的情况下;数据之间存在相互关系的时候,计算力的要求达到双指数增长;很多数据呈现为网络形式,如社交网络、生物网络、互联网、论文引用网络等。

 维度灾难:
在单元立方体中,子立方体中的均匀数据。维度p=10的时候,需要在每一个坐标轴上覆盖80%才能捕获10%的数据。在高维空间上,大多数数据点处在样本空间的边缘;全部的数据都稀疏在输入空间中,因此在保留更多原始数据信息的条件下是有助于数据处理的,也能降低计算复杂度。
 NE 方法
1. 传统方法:统计图的度(degrees)、聚类系数(clustering coefficients)、核函数(kernel function) 还有手工特征设计。
2. 时兴方法:表示学习,即学习一个映射(mapping)把节点或整个(子)图嵌入(embed)到低维向量空间,Rd 。
3. 两者的差别在于1是把问题做为预处理环节,2是把问题作为机器学习本身(data-driven approach),因为是通过数据本身优化学习到的mapping(作为参数或者模型),使得该mapping反映更多得原始图信息。
 Proximity
在传统的图嵌入上直接使用邻接矩阵作为邻近性矩阵(proximity matrix),在网络上需要设计邻近性矩阵,这与网络嵌入的目标有关,定义网络嵌入可以从共同的邻接点、高阶邻近性、社区结构等出发。

 传统的网络表示一般使用高维的稀疏向量. 但是高维稀疏的表示也成为了人们使用统计学习方法时的局限所在, 因为高维的向量将会花费更多的运行时间和计算空间. 随着表示学习技术在自然语言处理(Word2vec)等领域的

  • 2
    点赞
  • 15
    收藏
    觉得还不错? 一键收藏
  • 2
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 2
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值