[1]https://www.cnblogs.com/pinard/p/6266408.html
[2]Graph Embedding Techniques, Applications, and Performance: A Survey
主要参考和图片来源[1]
局部线性嵌入
(Locally Linear Embedding,LLE),一种重要降维方法,与PCA、LDA相比,更注重保持样本局部线性特征,常用语图像识别、高维数据可视化等。
数学意义上的流形
:一个不闭合曲面,曲面上数据分布均匀,特征比较稠密,流形降维就是把流形从高维到低维的降维过程,并在降维中保留流形高维的特征。
我的理解:数据分布于高维的一个曲面,流行学习就是将这个曲面降维展开表达出来
LLE
LLE假设数据在较小的局部是线性的,即样本 x1 x 1 可以由K个近邻样本 x2,x3,x4 x 2 , x 3 , x 4 线性表示
x1=w12x2+w13x3+w14x4 x 1 = w 12 x 2 + w 13 x 3 + w 14 x 4
则希望降维之后依然保持这种线性关系
x′1≈w12x′2+w13x′3+w14x′4 x 1 ′ ≈ w 12 x 2 ′ + w 13 x 3 ′ + w 14 x 4 ′
由于只考虑了局部线性关系,所以复杂度低很多
LLE推导
首先设定邻域大小k,然后寻找某个样本与近邻样本的线性关系,即权重系数。
假设有m个n维样本 {
x1,x2,...,xm} { x 1 , x 2 , . . . , x m } ,则有损失函数
J(w)=∑i=1m‖xi−∑j=1kwijxj‖22 J ( w ) = ∑ i = 1 m ‖ x i − ∑ j = 1 k w i j x j ‖ 2 2
对权重系数有归一化限制
∑j=1kwij=1 ∑ j = 1 k w i j = 1
对损失函数矩阵化
J(W)