【机器学习】【降维】稀疏保持投影(SPP)

稀疏保持投影


参考论文:sparsity preserving projections with applications to face recognition
作者:Lishan Qiao,Songcan Chen,Xiaoyang Tan 2010

一、主要思想

 线性降维方法:PCAf关注于全局,但对于非线性的数据结构,PCA的结果并不好
 流行学习:Isomap,LLE,LE来处理非线性流行结构数据,但他们没有继承传统PCA的优点。LPP是LE的线性近似和NPE和LEA是LLE的线性近似,但是怎么确定邻居的尺寸还是难题。
 SPP模型中,基于改进的稀疏表示来构造邻接权重矩阵。

二、算法步骤

2.1 稀疏表示权重

 给定数据{ x 1 , x 2 , . . . , x n x_1,x_2,...,x_n x1,x2,...,xn},其中 x i ∈ R m x_i∈R^m xiRm
m i n s i ∣ ∣ s i ∣ ∣ 1 s . t . x i = X s i , 1 = 1 T s i min_{s_i}||s_i||_1\\s.t.x_i=Xs_i,1=1^Ts_i minsisi1s.t.xi=Xsi1=1Tsi                                                   (12)
其中 s i s_i si={ s i 1 , . . . , s i , i − 1 , 0 , s i , i + 1 , . . . , s i n s_{i1,...,s_{i,i-1},0,s_{i,i+1},...,s_{in}} si1,...,si,i1,0,si,i+1,...,sin}T(第 i i i个元素为0,意味着把 x i x_i xi移出 X X X), s i j , j s_{ij},j sijj i i i,表示每一个 x j x_j xj对重构 x i x_i xi的贡献, 1 1 1是全1列向量。
最后 S = S= S={ s 1 ′ , s 2 ′ , . . . s n ′ s'_1,s'_2,...s'_n s1,s2,...sn}, s i ′ s'_i si为上述得到的优化的 s i s_i si

根据论文《Robust face recognition via sparse representation》,有两种解决上述MSR问题的方法:
 第一种:
           (15)
其中 ϵ \epsilon ϵ为error tolerance
 第二种:
  用 [ X , I ] [X,I] [X,I]代替 X X X,其中 I I I m m m维单位矩阵
      在这里插入图片描述     (16)
其中 t i t_i ti m m m维向量。

2.2 保持稀疏重构权重

 通过上述计算,我们可以得到稀疏权重矩阵 S S S,类似于LLE和NPE,有以下目标函数
    在这里插入图片描述
从而:
  在这里插入图片描述
添加约束 w ′ X X ′ w = 1 w'XX'w=1 wXXw=1,得到:
    在这里插入图片描述
S β = S + S ′ − S ′ S S_{\beta}=S+S'-S'S Sβ=S+SSS得到:
    在这里插入图片描述
类似于PCA,NPE,最优的 w w w就是下面广义特征值问题的前 d d d个最大的特征向量:
    在这里插入图片描述     (22)
基于上述讨论,总结得到SPP的算法如下:
在这里插入图片描述
注:对于许多高维数据,矩阵 X X ′ XX' XX通常是奇异的,因为训练样本数比特征维数要小的多。为了解决这个问题,训练样本首先被投影到PCA子空间通过对应的特征向量 W p c a = [ w 1 , w 2 , . . . , w d ’ ] W_{pca}=[w_1,w_2,...,w_{d’}] Wpca=[w1,w2,...,wd],然后矩阵 X X ′ XX' XX近似为:
在这里插入图片描述
显然这是非奇异的!

评论 3
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值