关于近邻保持算法LLE,LPP,NPE等算法的实现---流行学习

本文探讨了流行学习中的近邻保持算法,包括LLE、LPP和NPE在ORL数据库上的应用。实验结果显示,样本投影后可能降低识别率,NPE基于重构约束但投影样本识别效果不佳。在LLE中,直接对M=(I-W)(I-W)'进行特征值分解。对于NPE,两种实现方式(cai deng的代码和自编代码)在不同选取策略下,识别错误率有显著差异,随机选取样本能改善识别效果。
摘要由CSDN通过智能技术生成

需要注意的是:

1、在基于流行学习的方法中,所谓的M=(I-W)*(I-W)'中的I是单位矩阵。而不是1

2、对于图W,我们将系数按照一列一列的形式放,并且,Sw = Train_Ma*Mg*Train_Ma';Sb = Train_Ma*Train_Ma';

3、NPE在各种情况下的识别错误率对比,

第一种:ORL_56x46.mat数据库,不用PCA降维,选取每类样本的前k个样本,投影后的样本也做了归一化,SRC使用的是DALM_fast( [solution status]=SolveDALM_fast(Train_data,test_sample,0.01);)

         结论:(1) 样本投影后,可能并不能增加识别率,反而会降低识别率。

                  (2) 虽然NPE是基于重构约束的,但是投影后的样本并不具备很好的表示效果,即投影后的样本在使用SRC识别时,同样识别率下降很厉害。

                  (3) cai deng的代码中我没有调节降维维度,所以可能会差一点吧!!!

样本个数 2 3 4 5 6
原始数据上KNN 77.81 79.29 78.33 77 75
NPE(有监督,k=train_num-1)KNN识别 77.81 78.21 78.75 79 76.25
NPE(无监督,k=train_num-1)KNN识别 78.44 80.71 85 86 86.25
原始数据SRC 76.88 79.29 77.08 78 73.75
NPE(有监督,k=train_num-1)SRC识别 77.19 78.21 78.75 79 76.25
NPE(无监督,k=train_num-1)SRC识别 78.44 82.86 85.42 86.5 90.63
           
 our NPE 无监督 k=train_num-1 KNN dim=80    72.5      73.13
 our NPE 有监督k=traiin_num-1 KNN dim=80    74.29      73.13
 our NPE 无监督 k=train_num-1 SRC dim=80    74.29      74.38
 our NPE 有监督 k=train_num-1 SRC dim=80    74.29      71.88 
           

 

 

第二种:ORL_56x46.mat数据库,不用PCA降维,每类训练样本随机选取,循环20次,记录均值和标准差&#

  • 2
    点赞
  • 6
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值