奇异值分解与特征值分解之间存在密切的关系
前言
\quad
特征值分解仅仅针对方针而言,奇异值分解可对任意一个
m
×
n
m\times n
m×n 的矩阵。
奇异值分解
\quad 对于任意一个实数矩阵 X ∈ R m × n X\in \mathbb{R}^{m\times n} X∈Rm×n,其奇异值分解(Singular Value Decomposition,简称SVD)形式可以写为:
X = U Σ V T X=U{\Sigma}V^T X=UΣVT
其中,
U
=
[
u
1
,
u
2
,
.
.
.
,
u
m
]
∈
R
m
×
m
U=[u_1,u_2, ...,u_m] \in\mathbb{R}^{m\times m}
U=[u1,u2,...,um]∈Rm×m 与
V
=
[
v
1
,
v
2
,
.
.
.
,
v
n
]
∈
R
n
×
n
V=[v_1,v_2, ..., v_n]\in\mathbb{R}^{n\times n}
V=[v1,v2,...,vn]∈Rn×n 是正交化矩阵,
Σ
∈
R
m
×
n
\Sigma\in\mathbb{R}^{m\times n}
Σ∈Rm×n 是奇异值矩阵,其非对角线的元素全为 0。对于奇异值
δ
i
⩾
0
\delta_i \geqslant 0
δi⩾0 以及所对应的左、右奇异向量
u
i
∈
R
m
u_i\in\mathbb{R}^{m}
ui∈Rm 和
v
i
∈
R
n
v_ i\in\mathbb{R}^{n}
vi∈Rn(均为单位向量),同时满足以下关系:
X
v
i
=
δ
i
u
i
&
&
X
T
u
i
=
δ
i
v
i
Xv_i ={\delta}_iu_i \quad\&\&\quad X^Tu_i ={\delta}_iv_i
Xvi=δiui&&XTui=δivi
与特征值分解之间的关系
\quad
首先,我们看矩阵的左奇异向量,用矩阵
X
X
X 乘以它的转置
X
T
X^T
XT:
X
X
T
=
(
U
Σ
V
T
)
(
U
Σ
V
T
)
T
=
U
Σ
Σ
T
U
T
XX^T= (U{\Sigma}V^T)(U{\Sigma}V^T)^T=U{\Sigma}{\Sigma}^TU^T
XXT=(UΣVT)(UΣVT)T=UΣΣTUT
由上式,我们可知道:
1. 矩阵
X
X
X 的左奇异向量为
X
X
T
XX^T
XXT 的特征向量。
2. 矩阵
X
X
X 的非零奇异值(
Σ
\Sigma
Σ中对角线上的非零项)是
X
X
T
XX^T
XXT特征值的平方根。
\quad
同理,我们若用矩阵
X
T
X^T
XT乘以
X
X
X,我们可得到:
1. 矩阵
X
X
X 的右奇异向量为
X
T
X
X^TX
XTX 的特征向量。
2. 矩阵
X
X
X 的非零奇异值是
X
T
X
X^TX
XTX 的特征值的平方根。且
X
X
T
XX^T
XXT 及
X
T
X
X^TX
XTX 的特征值是完全一样的。
\quad 特别地,对于一个对称半正定方阵 P P P,它的奇异值与特征值相等,同时左右奇异向量与特诊向量也是相等的。
SVD实现示例代码:https://github.com/Kai-Xuan/MySVD/ [link]
相关应用可以参考:[1].
参考:
1. Chen K X, Wu X J, Wang R, et al. Riemannian kernel based Nyström method for approximate infinite-dimensional covariance descriptors with application to image set classification[C]//2018 24th International conference on pattern recognition (ICPR). IEEE, 2018: 651-656. [link]