局部线性嵌入(LLE)原理总结

    局部线性嵌入(Locally Linear Embedding,以下简称LLE)也是非常重要的降维方法。和传统的PCA,LDA等关注样本方差的降维方法相比,LLE关注于降维时保持样本局部的线性特征,由于LLE在降维时保持了样本的局部特征,它广泛的用于图像图像识别,高维数据可视化等领域。下面我们就对LLE的原理做一个总结。

1. 流形学习概述

    LLE属于流形学习(Manifold Learning)的一种。因此我们首先看看什么是流形学习。流形学习是一大类基于流形的框架。数学意义上的流形比较抽象,不过我们可以认为LLE中的流形是一个不闭合的曲面。这个流形曲面有数据分布比较均匀,且比较稠密的特征,有点像流水的味道。基于流行的降维算法就是将流形从高维到低维的降维过程,在降维的过程中我们希望流形在高维的一些特征可以得到保留。

    一个形象的流形降维过程如下图。我们有一块卷起来的布,我们希望将其展开到一个二维平面,我们希望展开后的布能够在局部保持布结构的特征,其实也就是将其展开的过程,就想两个人将其拉开一样。

    在局部保持布结构的特征,或者说数据特征的方法有很多种,不同的保持方法对应不同的流形算法。比如等距映射(ISOMAP)算法在降维后希望保持样本之间的测地距离而不是欧式距离,因为测地距离更能反映样本之间在流形中的真实距离。

    但是等距映射算法有一个问题就是他要找所有样本全局的最优解,当数据量很大,样本维度很高时,计算非常的耗时,鉴于这个问题,LLE通过放弃所有样本全局最优的降维,只是通过保证局部最优来降维。同时假设样本集在局部是满足线性关系的,进一步减少的降维的计算量。

2. LLE思想

    现在我们来看看LLE的算法思想。

    LLE首先假设数据在较小的局部是线性的,也就是说,某一个数据可以由它邻域中的几个样本来线性表示。比如我们有一个样本$x_1$,我们在它的原始高维邻域里用K-近邻思想找到和它最近的三个样本$x_2,x_3,x_4$. 然后我们假设$x_1$可以由$x_2,x_3,x_4$线性表示,即:$$x_1 = w_{12}x_2 + w_{13}x_3 +w_{14}x_4$$

  • 4
    点赞
  • 10
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
局部线性嵌入(Locally Linear Embedding,LLE)是一种非线性降维算法,用于从高维数据中提取其低维流形结构。它通过保持数据点之间的线性关系来实现降维,而不是简单地保持数据的距离关系。 LLE的基本思想是假设高维数据的低维表示可以通过将每个数据点与其邻居点进行线性组合来构建。具体来说,LLE将每个数据点表示为其邻居点的线性组合,使得该点与其邻居点之间的欧氏距离达到最小。然后,通过在低维空间中重建每个数据点的线性组合关系,LLE可以实现数据降维并保持其局部结构。 LLE算法包括以下步骤: 1. 寻找每个数据点的邻居点:根据设定的邻居数量,通过计算距离选择每个数据点的最近邻居。 2. 重建每个数据点的线性组合关系:对于每个数据点,根据其邻居点的权重,通过最小化重建误差来确定每个数据点的线性组合关系。 3. 构建低维表示:通过求解一个关于低维表示的优化问题,将高维数据映射到低维空间中。 LLE的优点是能够保持数据的局部结构,并且对噪声和非线性变换具有较好的鲁棒性。然而,LLE也存在一些缺点,如对邻居数量和权重的选择敏感,容易产生过拟合问题,并且计算复杂度较高。 总之,局部线性嵌入是一种通过保持数据点之间的线性关系来实现降维的非线性降维算法。它是一种有力的工具,可用于理解和分析高维数据集的结构。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值