局部线性嵌入(LLE)

关于LLE可参考局部线性嵌入(LLE)原理总结。本文对上述博客中第三节LLE算法推导给出一些自己的理解。

LLE算法推导

对于LLE算法,我们首先要确定邻域大小的选择,即我们需要多少个邻域样本来线性表示某个样本。假设这个值为k。我们可以通过和KNN一样的思想通过距离度量比如欧式距离来选择某样本的k个最近邻。

在寻找到某个样本的 x i x_i xi的k个最近邻之后我们就需要 x i x_i xi找到和这k个最近邻之间的线性关系,也就是要找到线性关系的权重系数。找线性关系,这显然是一个回归问题。假设我们有m个n维样本 { x 1 , x 2 , . . . , x m } \{x_1,x_2,...,x_m\} {x1,x2,...,xm},我们可以用均方差作为回归问题的损失函数:即:
J ( w ) = ∑ i = 1 m ∣ ∣ x i − ∑ j ∈ Q ( i ) w i j x j ∣ ∣ 2 2 J(w) = \sum\limits_{i=1}^{m}||x_i-\sum\limits_{j \in Q(i)}w_{ij}x_j||_2^2 J(w)=i=1m∣∣xijQ(i)wijxj22
其中, Q ( i ) Q(i) Q(i)表示 i i i的k个近邻样本集合。一般我们也会对权重系数wij做归一化的限制,即权重系数需要满足
∑ j ∈ Q ( i ) w i j = 1 \sum\limits_{j \in Q(i)}w_{ij} = 1 jQ(i)wij=1
也就是我们需要通过上面两个式子求出我们的权重系数。一般我们可以通过矩阵和拉格朗日子乘法来求解这个最优化问题。

对于第一个式子,我们先将其矩阵化:
J ( W ) = ∑ i = 1 m ∣ ∣ x i − ∑ j ∈ Q ( i ) w i j x j ∣ ∣ 2 2 = ∑ i = 1 m ∣ ∣ ∑ j ∈ Q ( i ) w i j x i − ∑ j ∈ Q ( i ) w i j x j ∣ ∣ 2 2 = ∑ i = 1 m ∣ ∣ ∑ j ∈ Q ( i ) w i j ( x i − x j ) ∣ ∣ 2 2 = ∑ i = 1 m W i T P i T P i W i \begin{align} J(W) & = \sum\limits_{i=1}^{m}||x_i-\sum\limits_{j \in Q(i)}w_{ij}x_j||_2^2 \\& = \sum\limits_{i=1}^{m}||\sum\limits_{j \in Q(i)}w_{ij}x_i-\sum\limits_{j \in Q(i)}w_{ij}x_j||_2^2 \\& = \sum\limits_{i=1}^{m}||\sum\limits_{j \in Q(i)}w_{ij}(x_i-x_j)||_2^2 \\& = \sum\limits_{i=1}^{m} W_i^TP_{i}^TP_iW_i \end{align} J(W)=i=1m∣∣xijQ(i)wijxj22=i=1m∣∣jQ(i)wijxijQ(i)wijxj22=i=1m∣∣jQ(i)wij(xixj)22=i=1mWiTPiTPiWi
其中 W i = ( w i 1 , w i 2 , . . . w i k ) T W_i =(w_{i1}, w_{i2},...w_{ik})^T Wi=(wi1,wi2,...wik)T,矩阵 P i = [ x i − x j ] , j ∈ Q ( i ) P_i=[x_i-x_j], j \in Q(i) Pi=[xixj],jQ(i)

令矩阵 Z i = P i T P i Z_i=P_{i}^TP_i Zi=PiTPi,则第一个式子进一步简化为 J ( W ) = ∑ i = 1 m W i T Z i W i J(W) = \sum\limits_{i=1}^{m} W_i^TZ_iW_i J(W)=i=1mWiTZiWi。对于第二个式子,我们可以矩阵化为:
∑ j ∈ Q ( i ) w i j = W i T 1 k = 1 \sum\limits_{j \in Q(i)}w_{ij} = W_i^T1_k = 1 jQ(i)wij=WiT1k=1
其中 1 k 1_k 1k为k维全1向量。

现在我们将矩阵化的两个式子用拉格朗日子乘法合为一个优化目标:
L ( W ) = ∑ i = 1 m W i T Z i W i + λ ( W i T 1 k − 1 ) L(W) = \sum\limits_{i=1}^{m} W_i^TZ_iW_i + \lambda(W_i^T1_k - 1) L(W)=i=1mWiTZiWi+λ(WiT1k1)
W W W求导并令其值为0,我们得到:
2 Z i W i + λ 1 k = 0 2Z_iW_i + \lambda1_k = 0 2ZiWi+λ1k=0

W i = λ ′ Z i − 1 1 k W_i = \lambda'Z_i^{-1}1_k Wi=λZi11k
其中 λ ′ = − 1 2 λ λ'=−\frac{1}{2}λ λ=21λ为一个常数。利用 W i T 1 k = 1 W_{i}^T1_k=1 WiT1k=1,对 W i W_i Wi归一化,那么最终我们的权重系数 W i W_i Wi为:
W i = Z i − 1 1 k 1 k T Z i − 1 1 k W_i = \frac{Z_i^{-1}1_k}{1_k^TZ_i^{-1}1_k} Wi=1kTZi11kZi11k
现在我们得到了高维的权重系数,那么我们希望这些权重系数对应的线性关系在降维后的低维一样得到保持。假设我们的n维样本集 { x 1 , x 2 , . . . , x m } \{x_1,x_2,...,x_m\} {x1,x2,...,xm}在低维的d维度对应投影为 { y 1 , y 2 , . . . , y m } \{y_1,y_2,...,y_m\} {y1,y2,...,ym},则我们希望保持线性关系,也就是希望对应的均方差损失函数最小,即最小化损失函数 J ( Y ) J(Y) J(Y)如下:
J ( Y ) = ∑ i = 1 m ∣ ∣ y i − ∑ j = 1 k w i j y j ∣ ∣ 2 2 J(Y) = \sum\limits_{i=1}^{m}||y_i-\sum\limits_{j=1}^{k}w_{ij}y_j||_2^2 J(Y)=i=1m∣∣yij=1kwijyj22
对于不在样本 x i x_i xi邻域内的样本 x j x_j xj,我们令对应的 w i j = 0 w_{ij}=0 wij=0,这样可以把 w w w扩展到整个数据集的维度。则有
J ( Y ) = ∑ i = 1 m ∣ ∣ y i − ∑ j = 1 m w i j y j ∣ ∣ 2 2 J(Y) = \sum\limits_{i=1}^{m}||y_i-\sum\limits_{j=1}^{m}w_{ij}y_j||_2^2 J(Y)=i=1m∣∣yij=1mwijyj22
可以看到这个式子和我们在高维的损失函数几乎相同,唯一的区别是高维的式子中,高维数据已知,目标是求最小值对应的权重系数 W W W,而我们在低维是权重系数 W W W已知,求对应的低维数据。注意这里 W W W的维数为 m × m m \times m m×m,其中对应的列为权重,列和为1

为了得到标准化的低维数据,一般我们也会加入约束条件如下:
∑ i = 1 m y i = 0 ;      1 m ∑ i = 1 m y i y i T = I \sum\limits_{i=1}^{m}y_i =0;\;\; \frac{1}{m}\sum\limits_{i=1}^{m}y_iy_i^T = I i=1myi=0;m1i=1myiyiT=I
首先我们将目标损失函数矩阵化:
J ( Y ) = ∑ i = 1 m ∣ ∣ y i − ∑ j = 1 m w i j y j ∣ ∣ 2 2 = ∑ i = 1 m ∣ ∣ Y I i − Y W i ∣ ∣ 2 2 = t r ( Y ( I − W ) ( I − W ) T Y T ) \begin{align} J(Y) & = \sum\limits_{i=1}^{m}||y_i-\sum\limits_{j=1}^{m}w_{ij}y_j||_2^2 \\& = \sum\limits_{i=1}^{m}||YI_i-YW_i||_2^2 \\& = tr(Y(I-W)(I-W)^TY^T) \end{align} J(Y)=i=1m∣∣yij=1mwijyj22=i=1m∣∣YIiYWi22=tr(Y(IW)(IW)TYT)
其中 Y = [ y 1 , y 2 , . . . , y m ] Y=[y_1,y_2,...,y_m] Y=[y1,y2,...,ym],(6)式到(7)式利用的迹的性质
t r ( A B ) = t r ( B A ) tr(AB) =tr(BA) tr(AB)=tr(BA)
余下内容可见局部线性嵌入(LLE)原理总结

  • 0
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值