局部保持投影(Locality preserving projections,LPP)

局部保持投影(Locality preserving projections,LPP)

方法概述

核心思想

  • 有映射 Y m ∗ n = f ( X d ∗ n ) \underset{m*n}{Y}=f(\underset {d*n}X) mnY=f(dnX),能够实现将d维的样本变换到m维空间之中

  • 假设:对于一个好的降维方法,在高维空间下距离近(相似度高)的两个点,在低维空间下依旧保持相近的关系。高维空间相似度高的两个点在低维空间相似度依旧很高

  • 考虑映射 Y = W T X Y=W^TX Y=WTX,即原样本空间中有 x i x_i xi x j x_j xj距离近, y i y_i yi y j y_j yj( y i = W T x i y_i=W^T x_i yi=WTxi)仍保持相近关系

优化目标
  • 定义优化目标:
    m i n ∑ i ∑ j ∣ ∣ y i − y j ∣ ∣ 2 s i j min\sum_i \sum_j ||y_i - y_j||^2s_{ij} minij∣∣yiyj2sij
    即在原始空间中近的点( s i j s_{ij} sij大),其在降维后应该尽可能接近( y i 与 y j 距离更小 y_i与y_j 距离更小 yiyj距离更小
方法推导:
  • 对于LPP方法,有目标:

a r g   m i n W ∑ i ∑ j ∣ ∣ y i − y j ∣ ∣ 2 s i j \underset{W}{arg\ min} \sum_i \sum_j ||y_i- y_j||^2s_{ij} Warg minij∣∣yiyj2sij

  • 对于目标:
    ∑ i = 1 n ∑ j = 1 n ∣ ∣ y i − y j ∣ ∣ 2 s i j = ∑ i = 1 n ∑ j = 1 n ( y i T y i − y i T y j − y j T y i + y j T y j ) s i j = ∑ i = 1 n ( ∑ j = 1 n s i j ) 2 y i T y i − ∑ i = 1 n ∑ j = 1 n y i T y j s i j = 2 ∑ i n y i T y i d i i − 2 ∑ i n ∑ j n y i T y j s i j = 2 t r ( Y D Y T ) − 2 t r ( Y S Y T ) = 2 t r ( Y L Y T )                           \sum_{i=1}^n \sum_{j=1}^n ||y_i- y_j||^2s_{ij}\\ =\sum_{i=1}^n \sum_{j=1}^n (y_i^Ty_i-y_i^Ty_j-y_j^Ty_i+y_j^Ty_j)s_{ij}\\ =\sum_{i=1}^n (\sum_{j=1}^ns_{ij})2y_i^Ty_i-\sum_{i=1}^n \sum_{j=1}^ny_i^Ty_js_{ij}\\ =2\sum_i^ny_i^Ty_id_{ii}-2\sum_i^n\sum_j^ny_i^Ty_js_{ij}\\ =2tr(YDY^T)-2tr(YSY^T)\\ =2tr(YLY^T)\ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ i=1nj=1n∣∣yiyj2sij=i=1nj=1n(yiTyiyiTyjyjTyi+yjTyj)sij=i=1n(j=1nsij)2yiTyii=1nj=1nyiTyjsij=2inyiTyidii2injnyiTyjsij=2tr(YDYT)2tr(YSYT)=2tr(YLYT)                         

去除乘数,最终优化目标为:
t r ( Y L Y T ) tr(YLY^T) tr(YLYT)
带入 Y = W T X Y = W^TX Y=WTX,得到最小化目标:
t r ( W T X L X T W ) tr(W^TXLX^TW) tr(WTXLXTW)

  • 该目标存在平凡零解: W = O m ∗ d W=O_{m*d} W=Omd

    此时L取最小值0,出现维度坍缩,所有样本映射到同一个点上,此解无意义

  • 当W不取零矩阵时,由于没有添加尺度约束,在降维子空间一定(组成基向量方向一致)情况下,当尺度不断变小时,目标L会同时变小,无限趋于0,不存在最小值

  • 因此,考虑对最小化目标变形为

    • t r ( Y L Y T ) t r ( Y D Y T ) = t r ( W T X L X T W ) W T X D X T W \frac{tr(YLY^T)}{tr(YDY^T)} = \frac{tr(W^TXLX^TW)}{W^TXDX^TW} tr(YDYT)tr(YLYT)=WTXDXTWtr(WTXLXTW)

      考虑到尺度因素,加以约束 Y D Y T = I YDY^T=I YDYT=I也即 W T X D X T W = I W^TXDX^TW=I WTXDXTW=I,

      原始优化问题有多个解。由于是线性映射,若同比例缩小低维样本 y i y_i yi,得到的数据集Y都可作为最优的低维数据集。故加入约束: t r ( Y D Y ⊤ ) = ∑ i = 1 n d i i y i T y i = 1 tr(YDY^\top)=\sum_{i=1}^nd_{ii}y_i^Ty_i=1 tr(YDY)=i=1ndiiyiTyi=1,通过限制 y i y_i yi的模长,使问题有唯一解。

  • 参考LDA中提到的广义瑞利商,可知:

    • λ m i n ( ( X D X T ) − 1 ( X L X T ) ) ≤ t r ( W T X L X T W ) t r ( W T X D X T W ) ≤ λ m a x ( ( X D X T ) − 1 ( X L X T ) ) λ_{min}((XDX^T)^{-1}(XLX^T))≤\frac{tr(W^TXLX^TW)}{tr(W^TXDX^TW)}≤λ_{max}((XDX^T)^{-1}(XLX^T)) λmin((XDXT)1(XLXT))tr(WTXDXTW)tr(WTXLXTW)λmax((XDXT)1(XLXT))

      变换矩阵: W = [ w 1 , w 2 , . . . , w m ] W=[w_1,w_2,...,w_m] W=[w1,w2,...,wm] ( X D X T ) − 1 ( X L X T ) (XDX^T)^{-1}(XLX^T) (XDXT)1(XLXT)最小m个特征向量构成

  • 矩阵形式推导:

由拉格朗日乘子法,构建L: L = t r ( W T X L X T W ) − t r ( Λ ( W T X D X T W − I ) ) L = tr(W^TXLX^TW)-tr(\Lambda(W^TXDX^TW-I)) L=tr(WTXLXTW)tr(Λ(WTXDXTWI))

对W求偏导并令为0:
2 X L X T W − 2 X D X T W Λ = 0 X L X T W = X D X T W Λ 有: ( X D X T ) − 1 X L X T W = W Λ 2XLX^TW-2XDX^TW\Lambda=0\\ XLX^TW= XDX^TW \Lambda\\ 有:(XDX^T)^{-1}XLX^TW=W\Lambda 2XLXTW2XDXTWΛ=0XLXTW=XDXTWΛ有:(XDXT)1XLXTW=WΛ

W由 ( X D X T ) − 1 X L X T (XDX^T)^{-1}XLX^T (XDXT)1XLXT的特征向量作为列向量构成,且为了最小化目标函数,选取的特征向量应该是最小m个特征值对应的特征向量

相关定义
  • 权重矩阵S:

    • 定义样本 x i x_i xi x j x_j xj之间的权重 w i j w_{ij} wij, 原则是样本点之间距离越小,权重越大

    • 权重矩阵S常用定义方式:
      S i j = { s i j = e x p ( − ∣ ∣ x i − x j ∣ ∣ 2 t )       x i ∈ N k ( x j ) 即 x i 是 x j 的 k 近邻 s i j = 0                                                                  e l s e S_{ij} = \left\{ \begin{matrix} s_{ij} = exp(-\frac{||x_i - x_j||^2}{t})\ \ \ \ \ x_i∈N_k(x_j) 即x_i是x_j的k近邻\\ s_{ij}=0\ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ else \end{matrix} \right. Sij={sij=exp(t∣∣xixj2)     xiNk(xj)xixjk近邻sij=0                                                                else

  • 度矩阵D:

    • 度矩阵D是一个对角阵,其对角元素 D i i = ∑ j = 1 n s i j D_{ii} = \sum_{j=1}^{n} s_{ij} Dii=j=1nsij

    • D = { ∑ j = 1 n s 1 j      0      . . .      0 0      ∑ j = 1 n s 2 j      . . .      0 . . .      . . .      . . .      . . . 0      0      . . .      ∑ j = 1 n s n j } D= \left. \left \{ \begin{matrix} \sum_{j=1}^ns_{1j}\ \ \ \ 0\ \ \ \ ...\ \ \ \ 0 \\ 0\ \ \ \ \sum_{j=1}^ns_{2j}\ \ \ \ ...\ \ \ \ 0 \\ ...\ \ \ \ ...\ \ \ \ ...\ \ \ \ ... \\ 0\ \ \ \ 0\ \ \ \ ...\ \ \ \ \sum_{j=1}^ns_{nj} \end{matrix} \right. \right\} D= j=1ns1j    0    ...    00    j=1ns2j    ...    0...    ...    ...    ...0    0    ...    j=1nsnj

  • 拉普拉斯矩阵L:L=D-S

有运算:
Y D Y T = [ y 1 , y 2 , . . . , y n ] [ d 11      0      . . .      0 0      d 22      . . .      0 . . .      . . .      . . .      . . . 0      0      . . .      d n n ] [ y 1 T y 2 T . . . y n T ] = [ d 11 y 1 , d 22 y 2 , . . . , d n n y n ] [ y 1 T y 2 T . . . y n T ] = d 11 y 1 y 1 T + d 22 y 2 y 2 T + . . . + d n n y n y n T = ∑ i = 1 n y i d i i y i T = ∑ i = 1 n d i i y i y i T YDY^T = [y_1,y_2,...,y_n] \left. \left [ \begin{matrix} d_{11}\ \ \ \ 0\ \ \ \ ...\ \ \ \ 0 \\ 0\ \ \ \ d_{22}\ \ \ \ ...\ \ \ \ 0 \\ ...\ \ \ \ ...\ \ \ \ ...\ \ \ \ ... \\ 0\ \ \ \ 0\ \ \ \ ...\ \ \ \ d_{nn} \end{matrix} \right. \right] \left. \left [ \begin{matrix} y_1^T \\ y_2^T \\ ... \\ y_n^T \end{matrix} \right. \right] \\ =[d_{11}y_1,d_{22}y_2,...,d_{nn}y_n] \left. \left [ \begin{matrix} y_1^T \\ y_2^T \\ ... \\ y_n^T \end{matrix} \right. \right] \\ =d_{11}y_1y_1^T + d_{22}y_2y_2^T + ... + d_{nn}y_ny_n^T=\sum_{i=1}^ny_id_{ii}y_i^T=\sum_{i=1}^nd_{ii}y_iy_i^T\\ YDYT=[y1,y2,...,yn] d11    0    ...    00    d22    ...    0...    ...    ...    ...0    0    ...    dnn y1Ty2T...ynT =[d11y1,d22y2,...,dnnyn] y1Ty2T...ynT =d11y1y1T+d22y2y2T+...+dnnynynT=i=1nyidiiyiT=i=1ndiiyiyiT
因此有:
t r ( Y D Y T ) = ∑ i = 1 n d i i y i T y i tr(YDY^T) = \sum_{i=1}^nd_{ii}y_i^Ty_i tr(YDYT)=i=1ndiiyiTyi
类似可得:
t r ( Y S Y T ) = ∑ i = 1 n ∑ j = 1 n s i j y i T y j tr(YSY^T) = \sum_{i=1}^n\sum_{j=1}^ns_{ij}y_i^Ty_j tr(YSYT)=i=1nj=1nsijyiTyj

方法流程
1)由样本矩阵X构建权重矩阵S,度矩阵D,拉普拉斯矩阵L

2)求 ( X D X T ) − 1 X L X T (XDX^T)^{-1}XLX^T (XDXT)1XLXT的特征向量,取最小m个作列向量构成变换矩阵W

3)由 Y = W T X Y=W^TX Y=WTX完成降维

  • 1
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
### 回答1: 局部保持投影Locality Preserving ProjectionLPP)和领域保持投影(Neighborhood Preserving Projection,NPP)都是常见的数据降维方法,它们的区别在于保持的对象不同。 LPP 的目标是保持样本之间的局部关系,即将相邻的样本在降维后仍然保持相邻。因此,LPP 在降维后能够保留数据局部的几何结构,但可能会丢失全局结构。 NPP 的目标是保持样本之间的全局关系,即将在同一类别内的样本在降维后仍然保持相邻,而不同类别之间的样本则尽量远离。因此,NPP 在降维后能够保留数据的全局结构,但可能会忽略数据的局部结构。 总之,LPP 侧重于保留数据的局部结构,NPP 侧重于保留数据的全局结构。在选择投影方法时,应根据具体问题的需求来选择。 ### 回答2: 局部保持投影和领域保持投影都是一种数据降维的方法,目的是通过对数据进行映射,将高维数据映射到低维空间中,从而降低数据的维度。 局部保持投影Locally Preserving Projection)是一种基于局部邻近关系的降维方法。其思想是在保持数据的局部结构的前提下,通过投影将高维数据映射到低维空间中。局部保持投影首先选择一组数据点的邻近点,然后计算这些邻近点在低维空间中的投影点,使得投影后的低维数据点能够尽可能地保持原始数据在原始空间中的邻近关系。局部保持投影适用于非线性数据结构,能够较好地保持数据的局部结构,但对于全局结构的保持相对较差。 领域保持投影(Neighborhood Preserving Projection)是一种基于全局邻近关系的降维方法。其目标是通过投影将高维数据映射到低维空间中,同时尽可能地保持原始数据的全局结构。领域保持投影会计算每个数据点之间的全局邻近关系,并通过投影将具有相似邻近关系的数据点映射到低维空间中的相似位置,从而保持数据的全局结构。领域保持投影适用于线性数据结构,能够较好地保持数据的全局结构,但对于非线性数据结构的保持相对较差。 综上所述,局部保持投影和领域保持投影的区别在于它们保持数据结构的方式不同。局部保持投影注重保持数据的局部结构,适用于非线性数据结构;而领域保持投影注重保持数据的全局结构,适用于线性数据结构。 ### 回答3: 局部保持投影与领域保持投影是计算机视觉中常用的特征提取方法。 局部保持投影是基于图像的局部特征进行分析的一种方法。它将图像分割成小的局部区域,并在每个区域内计算特征。这些特征可以是局部的边缘、纹理或颜色等信息。然后,通过对这些特征进行投影,生成每个区域的投影特征。局部保持投影关注于保持原图像中的局部特征,并且在提取特征时考虑了局部位置的作用。这种方法适用于对局部结构和纹理信息进行分析和识别的任务,例如物体检测和人脸识别。 领域保持投影是一种结合了局部特征和全局信息的特征提取方法。与局部保持投影不同,领域保持投影不仅考虑图像的局部特征,还考虑了它们之间的空间关系。它首先将图像划分为多个领域(例如重叠的小块),然后在每个领域内计算特征。接下来,通过考虑不同领域之间的相似性和空间关系,生成整个图像的投影特征。领域保持投影更加注重全局一致性和空间信息的保持,适用于更复杂的任务,如图像分类和图像检索。 总的来说,局部保持投影和领域保持投影都是特征提取的方法,但它们的主要区别在于特征计算的粒度和是否考虑了空间关系。局部保持投影更注重局部特征的保持,而领域保持投影则更注重整体特征和空间关系的保持。具体应用中,选择哪种方法取决于任务的要求和实际情况。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值