局部线性嵌入LLE

[1]https://www.cnblogs.com/pinard/p/6266408.html
[2]Graph Embedding Techniques, Applications, and Performance: A Survey
主要参考和图片来源[1]

局部线性嵌入(Locally Linear Embedding,LLE),一种重要降维方法,与PCA、LDA相比,更注重保持样本局部线性特征,常用语图像识别、高维数据可视化等。

数学意义上的流形:一个不闭合曲面,曲面上数据分布均匀,特征比较稠密,流形降维就是把流形从高维到低维的降维过程,并在降维中保留流形高维的特征。
这里写图片描述

我的理解:数据分布于高维的一个曲面,流行学习就是将这个曲面降维展开表达出来

这里写图片描述

LLE
LLE假设数据在较小的局部是线性的,即样本 x1 x 1 可以由K个近邻样本 x2,x3,x4 x 2 , x 3 , x 4 线性表示

x1=w12x2+w13x3+w14x4 x 1 = w 12 x 2 + w 13 x 3 + w 14 x 4

则希望降维之后依然保持这种线性关系
x1w12x2+w13x3+w14x4 x 1 ′ ≈ w 12 x 2 ′ + w 13 x 3 ′ + w 14 x 4 ′

由于只考虑了局部线性关系,所以复杂度低很多

LLE推导

首先设定邻域大小k,然后寻找某个样本与近邻样本的线性关系,即权重系数。
假设有m个n维样本 { x1,x2,...,xm} { x 1 , x 2 , . . . , x m } ,则有损失函数

J(w)=i=1mxij=1kwijxj22 J ( w ) = ∑ i = 1 m ‖ x i − ∑ j = 1 k w i j x j ‖ 2 2

对权重系数有归一化限制
j=1kwij=1 ∑ j = 1 k w i j = 1

对损失函数矩阵化
J(W)
  • 4
    点赞
  • 13
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值