文章目录
Eigenvalue Decomposite (EVD)
1. Eigenvalues and eigenvectors
1.1 Definition
- 对于矩阵
A
A
A 以及向量
x
⃗
\vec{x}
x,若存在
λ
\lambda
λ以及向量
x
⃗
\vec{x}
x使得下式成立
A
x
⃗
=
λ
x
⃗
A\vec{x}=\lambda \vec{x}
Ax=λx
则称 λ \lambda λ为矩阵 A A A的一个特征值,向量 x ⃗ \vec{x} x为与该特征值相对应的特征向量
1.2 How to solve A x ⃗ = λ x ⃗ A\vec{x}=\lambda\vec{x} Ax=λx
- Rerite is as ( A − λ I ) x ⃗ = 0 (A-\lambda I)\vec{x}=0 (A−λI)x=0
- 因此我们有 A − λ I A-\lambda I A−λI 是一个奇异矩阵(不可逆)
- ∣ A − λ I ∣ = 0 |A-\lambda I|=0 ∣A−λI∣=0,该式称为特征方程(characteristic equation)。解特征方程,即可得到特征值。
- 将特征值代入 A − λ I A-\lambda I A−λI,求得其null space中的一个向量即为特征向量。
1.3 特征值的性质
- 与矩阵的迹的关系: t r a c ( A ) = ∑ i = 1 n λ i trac(A)=\sum_{i=1}^{n}\lambda_i trac(A)=∑i=1nλi
- 与矩阵的行列式的关系: ∣ A ∣ = ∏ i = 1 n λ i |A|=\prod_{i=1}^{n}\lambda_i ∣A∣=∏i=1nλi
- 如果一个矩阵是上三角阵,则其特征值为对角线上的元素
- 如果一个矩阵是对称矩阵,那么其所有的特征值均是实数,而若一个矩阵是反对称矩阵 ( A T = − A ) (A^T=-A) (AT=−A),其所有的特征值都是纯虚数
2.Diagonalizing a matrix
- 假定矩阵
A
A
A具有n个independent eigenvector,矩阵
S
S
S为这些特征向量构成的矩阵(每一个特征向量为一列),那么我们有:
A
S
=
A
[
x
1
⃗
,
x
2
⃗
,
⋯
,
x
n
⃗
]
=
[
x
1
⃗
,
x
2
⃗
,
⋯
,
x
n
⃗
]
[
λ
1
⋯
0
⋮
⋱
⋮
0
⋯
λ
n
]
=
S
Λ
\begin{align} AS&=A[\vec{x_1},\vec{x_2},\cdots,\vec{x_n}]\\ & = [\vec{x_1},\vec{x_2},\cdots,\vec{x_n}]\begin{bmatrix}\lambda_1&\cdots&0\\\vdots &\ddots&\vdots\\0&\cdots&\lambda_n\end{bmatrix} \\ &=S\Lambda\end{align}
AS=A[x1,x2,⋯,xn]=[x1,x2,⋯,xn]⎣
⎡λ1⋮0⋯⋱⋯0⋮λn⎦
⎤=SΛ
于是我们得到: A = S Λ S − 1 A=S\Lambda S^{-1} A=SΛS−1 - 若矩阵
A
A
A为对称矩阵,且选择特征向量,使得所有特征向量为正交归一化向量,此时记特征向量构成的矩阵为
Q
Q
Q,上述对于一般矩阵
A
A
A的对角化式则变为:
A
=
Q
Λ
Q
T
A=Q\Lambda Q^T
A=QΛQT
其中,由于Q是满秩且每一列均是单位向量,有 Q − 1 = Q T Q^{-1}=Q^T Q−1=QT。