关于LLE可参考局部线性嵌入(LLE)原理总结。本文对上述博客中第三节LLE算法推导给出一些自己的理解。
LLE算法推导
对于LLE算法,我们首先要确定邻域大小的选择,即我们需要多少个邻域样本来线性表示某个样本。假设这个值为k。我们可以通过和KNN一样的思想通过距离度量比如欧式距离来选择某样本的k个最近邻。
在寻找到某个样本的
x
i
x_i
xi的k个最近邻之后我们就需要
x
i
x_i
xi找到和这k个最近邻之间的线性关系,也就是要找到线性关系的权重系数。找线性关系,这显然是一个回归问题。假设我们有m个n维样本
{
x
1
,
x
2
,
.
.
.
,
x
m
}
\{x_1,x_2,...,x_m\}
{x1,x2,...,xm},我们可以用均方差作为回归问题的损失函数:即:
J
(
w
)
=
∑
i
=
1
m
∣
∣
x
i
−
∑
j
∈
Q
(
i
)
w
i
j
x
j
∣
∣
2
2
J(w) = \sum\limits_{i=1}^{m}||x_i-\sum\limits_{j \in Q(i)}w_{ij}x_j||_2^2
J(w)=i=1∑m∣∣xi−j∈Q(i)∑wijxj∣∣22
其中,
Q
(
i
)
Q(i)
Q(i)表示
i
i
i的k个近邻样本集合。一般我们也会对权重系数wij做归一化的限制,即权重系数需要满足
∑
j
∈
Q
(
i
)
w
i
j
=
1
\sum\limits_{j \in Q(i)}w_{ij} = 1
j∈Q(i)∑wij=1
也就是我们需要通过上面两个式子求出我们的权重系数。一般我们可以通过矩阵和拉格朗日子乘法来求解这个最优化问题。
对于第一个式子,我们先将其矩阵化:
J
(
W
)
=
∑
i
=
1
m
∣
∣
x
i
−
∑
j
∈
Q
(
i
)
w
i
j
x
j
∣
∣
2
2
=
∑
i
=
1
m
∣
∣
∑
j
∈
Q
(
i
)
w
i
j
x
i
−
∑
j
∈
Q
(
i
)
w
i
j
x
j
∣
∣
2
2
=
∑
i
=
1
m
∣
∣
∑
j
∈
Q
(
i
)
w
i
j
(
x
i
−
x
j
)
∣
∣
2
2
=
∑
i
=
1
m
W
i
T
P
i
T
P
i
W
i
\begin{align} J(W) & = \sum\limits_{i=1}^{m}||x_i-\sum\limits_{j \in Q(i)}w_{ij}x_j||_2^2 \\& = \sum\limits_{i=1}^{m}||\sum\limits_{j \in Q(i)}w_{ij}x_i-\sum\limits_{j \in Q(i)}w_{ij}x_j||_2^2 \\& = \sum\limits_{i=1}^{m}||\sum\limits_{j \in Q(i)}w_{ij}(x_i-x_j)||_2^2 \\& = \sum\limits_{i=1}^{m} W_i^TP_{i}^TP_iW_i \end{align}
J(W)=i=1∑m∣∣xi−j∈Q(i)∑wijxj∣∣22=i=1∑m∣∣j∈Q(i)∑wijxi−j∈Q(i)∑wijxj∣∣22=i=1∑m∣∣j∈Q(i)∑wij(xi−xj)∣∣22=i=1∑mWiTPiTPiWi
其中
W
i
=
(
w
i
1
,
w
i
2
,
.
.
.
w
i
k
)
T
W_i =(w_{i1}, w_{i2},...w_{ik})^T
Wi=(wi1,wi2,...wik)T,矩阵
P
i
=
[
x
i
−
x
j
]
,
j
∈
Q
(
i
)
P_i=[x_i-x_j], j \in Q(i)
Pi=[xi−xj],j∈Q(i)。
令矩阵
Z
i
=
P
i
T
P
i
Z_i=P_{i}^TP_i
Zi=PiTPi,则第一个式子进一步简化为
J
(
W
)
=
∑
i
=
1
m
W
i
T
Z
i
W
i
J(W) = \sum\limits_{i=1}^{m} W_i^TZ_iW_i
J(W)=i=1∑mWiTZiWi。对于第二个式子,我们可以矩阵化为:
∑
j
∈
Q
(
i
)
w
i
j
=
W
i
T
1
k
=
1
\sum\limits_{j \in Q(i)}w_{ij} = W_i^T1_k = 1
j∈Q(i)∑wij=WiT1k=1
其中
1
k
1_k
1k为k维全1向量。
现在我们将矩阵化的两个式子用拉格朗日子乘法合为一个优化目标:
L
(
W
)
=
∑
i
=
1
m
W
i
T
Z
i
W
i
+
λ
(
W
i
T
1
k
−
1
)
L(W) = \sum\limits_{i=1}^{m} W_i^TZ_iW_i + \lambda(W_i^T1_k - 1)
L(W)=i=1∑mWiTZiWi+λ(WiT1k−1)
对
W
W
W求导并令其值为0,我们得到:
2
Z
i
W
i
+
λ
1
k
=
0
2Z_iW_i + \lambda1_k = 0
2ZiWi+λ1k=0
即
W
i
=
λ
′
Z
i
−
1
1
k
W_i = \lambda'Z_i^{-1}1_k
Wi=λ′Zi−11k
其中
λ
′
=
−
1
2
λ
λ'=−\frac{1}{2}λ
λ′=−21λ为一个常数。利用
W
i
T
1
k
=
1
W_{i}^T1_k=1
WiT1k=1,对
W
i
W_i
Wi归一化,那么最终我们的权重系数
W
i
W_i
Wi为:
W
i
=
Z
i
−
1
1
k
1
k
T
Z
i
−
1
1
k
W_i = \frac{Z_i^{-1}1_k}{1_k^TZ_i^{-1}1_k}
Wi=1kTZi−11kZi−11k
现在我们得到了高维的权重系数,那么我们希望这些权重系数对应的线性关系在降维后的低维一样得到保持。假设我们的n维样本集
{
x
1
,
x
2
,
.
.
.
,
x
m
}
\{x_1,x_2,...,x_m\}
{x1,x2,...,xm}在低维的d维度对应投影为
{
y
1
,
y
2
,
.
.
.
,
y
m
}
\{y_1,y_2,...,y_m\}
{y1,y2,...,ym},则我们希望保持线性关系,也就是希望对应的均方差损失函数最小,即最小化损失函数
J
(
Y
)
J(Y)
J(Y)如下:
J
(
Y
)
=
∑
i
=
1
m
∣
∣
y
i
−
∑
j
=
1
k
w
i
j
y
j
∣
∣
2
2
J(Y) = \sum\limits_{i=1}^{m}||y_i-\sum\limits_{j=1}^{k}w_{ij}y_j||_2^2
J(Y)=i=1∑m∣∣yi−j=1∑kwijyj∣∣22
对于不在样本
x
i
x_i
xi邻域内的样本
x
j
x_j
xj,我们令对应的
w
i
j
=
0
w_{ij}=0
wij=0,这样可以把
w
w
w扩展到整个数据集的维度。则有
J
(
Y
)
=
∑
i
=
1
m
∣
∣
y
i
−
∑
j
=
1
m
w
i
j
y
j
∣
∣
2
2
J(Y) = \sum\limits_{i=1}^{m}||y_i-\sum\limits_{j=1}^{m}w_{ij}y_j||_2^2
J(Y)=i=1∑m∣∣yi−j=1∑mwijyj∣∣22
可以看到这个式子和我们在高维的损失函数几乎相同,唯一的区别是高维的式子中,高维数据已知,目标是求最小值对应的权重系数
W
W
W,而我们在低维是权重系数
W
W
W已知,求对应的低维数据。注意这里
W
W
W的维数为
m
×
m
m \times m
m×m,其中对应的列为权重,列和为1。
为了得到标准化的低维数据,一般我们也会加入约束条件如下:
∑
i
=
1
m
y
i
=
0
;
1
m
∑
i
=
1
m
y
i
y
i
T
=
I
\sum\limits_{i=1}^{m}y_i =0;\;\; \frac{1}{m}\sum\limits_{i=1}^{m}y_iy_i^T = I
i=1∑myi=0;m1i=1∑myiyiT=I
首先我们将目标损失函数矩阵化:
J
(
Y
)
=
∑
i
=
1
m
∣
∣
y
i
−
∑
j
=
1
m
w
i
j
y
j
∣
∣
2
2
=
∑
i
=
1
m
∣
∣
Y
I
i
−
Y
W
i
∣
∣
2
2
=
t
r
(
Y
(
I
−
W
)
(
I
−
W
)
T
Y
T
)
\begin{align} J(Y) & = \sum\limits_{i=1}^{m}||y_i-\sum\limits_{j=1}^{m}w_{ij}y_j||_2^2 \\& = \sum\limits_{i=1}^{m}||YI_i-YW_i||_2^2 \\& = tr(Y(I-W)(I-W)^TY^T) \end{align}
J(Y)=i=1∑m∣∣yi−j=1∑mwijyj∣∣22=i=1∑m∣∣YIi−YWi∣∣22=tr(Y(I−W)(I−W)TYT)
其中
Y
=
[
y
1
,
y
2
,
.
.
.
,
y
m
]
Y=[y_1,y_2,...,y_m]
Y=[y1,y2,...,ym],(6)式到(7)式利用的迹的性质
t
r
(
A
B
)
=
t
r
(
B
A
)
tr(AB) =tr(BA)
tr(AB)=tr(BA)
余下内容可见局部线性嵌入(LLE)原理总结