常用降维方法

 

 

一、拉普拉斯特征映射(Laplacian Eigenmaps,LE)

(1)特点

  • 非线性的降维方法
  • 降维的同时保留局部近邻节点的信息
  • 属于流形学习

(2)目标函数

未添加限制条件:


添加限制条件并简化后:

 

(3)需求解的特征方程

(4)优点

  • LE的局部特征保留特性使得它对孤立点和噪音不会那么敏感
  • 算法基于流形的内在几何结构,因此它展示出嵌入的稳定性。只要嵌入是等度量的(Isometric),这个表示就是不变的。在移动相机的例子里,相机不同的解析度将会导致同一个流形嵌入到不同维度的空间中去。我们的算法可以产生相似的表现(Representation),即使是不同的分辨率.

二、局部保留投影(Locality Preserving Projections,LPP)

(1)特点

  • 线性降维
  • 降维的同时保留局部近邻节点的信息
  • 属于流形学习

(2)目标函数

未添加限制条件:


添加限制条件并简化后:

(3)待求解的特征方程

(4)优点

  • 线性方法
  • LPP被定义在空间的任何一点。与之对比的是,ISOMAP,LLE,LE等算法都只能用于训练数据上,而对于新的测试数据却并没有一个比较好的映射
  • LPP算法可以被引入数据集所映射到的RKHS(再生核希尔伯特空间),因此就有了核LPP算法

三、多维缩放(Multidimensional Scaling,MDS)

四、等度量映射(Isometric Mapping,Isomap)

(1)特点

  • 属于流形学习的一种
  • 认为低维流形嵌入高维空间后,低维流形两点间的距离是测地线距离(geodesic)
  • 利用两点间的最短路径来近似两点间的测地线距离。因此,当空间中的数据点稠密时,近似效果较好,误差较小;当数据点稀疏时,效果就不太好。

(2)算法核心步骤

kNN找近邻 -> 最短路径计算 -> 距离矩阵输入MDS -> 从MDS得到低维的矩阵

五、局部线性嵌入(Locally Linear Embedding,LLE)

六、线性判别分析(Linear Discriminant Analysis,LDA)

(

七、主分量分析(Principal components analysis,PCA)

则W为XXTXXT的n'个特征向量组成的矩阵,而−λ为XXTXXT的特征值。当我们将数据集从n维降到n'维时,需要找到最大的n'个特征值对应的特征向量。这n'个特征向量组成的矩阵W即为我们需要的矩阵。

 

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值