本节为线性代数复习笔记的第七部分,主要包括:特征值、特征向量与相似矩阵、相似对角化。
1. 特征值与特征向量
定义:设A是n阶方阵,
λ
\lambda
λ是一个数,若存在n维非零列向量
ξ
\xi
ξ,使得
A
ξ
=
λ
ξ
A\xi=\lambda \xi
Aξ=λξ,则称
λ
\lambda
λ是A的特征值,
ξ
\xi
ξ是A对应于特征值
λ
\lambda
λ的特征向量。
由于
A
ξ
=
λ
ξ
A\xi=\lambda \xi
Aξ=λξ可得
(
λ
E
−
A
)
ξ
=
0
(\lambda E-A)\xi=0
(λE−A)ξ=0,因列向量
ξ
\xi
ξ非零,也就是说齐次线性方程组有非零解,即矩阵
(
λ
E
−
A
)
(\lambda E-A)
(λE−A)中的所有列向量线性相关,也就是行列式为0,即
∣
λ
E
−
A
∣
=
0
|\lambda E-A|=0
∣λE−A∣=0,这个等式称为特征方程。
e
g
.
eg.
eg.
求
方
阵
A
=
[
0
0
1
0
1
0
1
0
0
]
的
特
征
值
和
特
征
向
量
求方阵A=\left[\begin{matrix}0&0&1\\0&1&0\\1&0&0\end{matrix}\right]的特征值和特征向量
求方阵A=⎣⎡001010100⎦⎤的特征值和特征向量.
解
特
征
方
程
:
∣
λ
E
−
A
∣
=
∣
λ
0
−
1
0
λ
−
1
0
−
1
0
λ
∣
解特征方程:|\lambda E-A|=\left|\begin{matrix}\lambda&0&-1\\0&\lambda-1&0\\-1&0&\lambda\end{matrix}\right|
解特征方程:∣λE−A∣=∣∣∣∣∣∣λ0−10λ−10−10λ∣∣∣∣∣∣
=
(
λ
−
1
)
(
λ
2
−
1
)
=
(
λ
−
1
)
2
(
λ
+
1
)
=
0
=(\lambda-1)(\lambda^2-1)=(\lambda-1)^2(\lambda+1)=0
=(λ−1)(λ2−1)=(λ−1)2(λ+1)=0
解
得
:
λ
1
=
λ
2
=
1
,
λ
3
=
−
1
解得:\lambda_1=\lambda_2=1,\lambda_3=-1
解得:λ1=λ2=1,λ3=−1
当
λ
1
=
λ
2
=
1
,
则
(
E
−
A
)
x
=
0
,
即
:
当\lambda_1=\lambda_2=1,则(E-A)x=0,即:
当λ1=λ2=1,则(E−A)x=0,即:
[ 1 0 − 1 0 0 0 − 1 0 1 ] [ x 1 x 2 x 3 ] = [ 0 0 0 ] \left[\begin{matrix}1&0&-1\\0&0&0\\-1&0&1\end{matrix}\right]\left[\begin{matrix}x_1\\x_2\\x_3\end{matrix}\right]=\left[\begin{matrix}0\\0\\0\end{matrix}\right] ⎣⎡10−1000−101⎦⎤⎣⎡x1x2x3⎦⎤=⎣⎡000⎦⎤
之
后
就
是
化
系
数
矩
阵
为
阶
梯
矩
阵
的
基
础
解
系
之后就是化系数矩阵为阶梯矩阵的基础解系
之后就是化系数矩阵为阶梯矩阵的基础解系
ξ
1
=
[
1
,
0
,
1
]
T
,
ξ
2
=
[
0
,
1
,
0
]
T
\xi_1=[1,0,1]^T,\xi_2=[0,1,0]^T
ξ1=[1,0,1]T,ξ2=[0,1,0]T,
则
k
1
ξ
1
+
k
2
ξ
2
是
对
应
于
则k_1\xi_1+k_2\xi_2是对应于
则k1ξ1+k2ξ2是对应于
λ
1
=
λ
2
=
1
的
全
部
特
征
量
。
同
理
λ
3
=
−
1
。
\lambda_1=\lambda_2=1的全部特征量。同理\lambda_3=-1。
λ1=λ2=1的全部特征量。同理λ3=−1。
2. 相似矩阵与相似对角化
相似矩阵即:若
P
−
1
A
P
=
B
则
A
∼
B
,
P^{-1}AP=B则A\sim B,
P−1AP=B则A∼B,相似矩阵的秩相等、行列式值相等、迹数相等、拥有同样的特征值)尽管相应的特征向量一般不同)、同样的特征多项式、拥有同样的初等因子。
更加加详细的我们看相似对角化的概念:若存在可逆矩阵P(行列式不为0,列向量线性无关),使得
P
−
1
A
P
=
Λ
P^{-1}AP=\Lambda
P−1AP=Λ(对角矩阵),则称A可以相似对角化,记为
A
∼
Λ
,
称
Λ
A\sim \Lambda,称\Lambda
A∼Λ,称Λ为A的相似标准型。
若
P
−
1
A
P
=
Λ
,
即
A
P
=
P
Λ
,
即
A
(
ξ
1
,
ξ
2
,
.
.
.
,
ξ
n
)
P^{-1}AP=\Lambda,即AP=P\Lambda,即A(\xi_1,\xi_2,...,\xi_n)
P−1AP=Λ,即AP=PΛ,即A(ξ1,ξ2,...,ξn)
=
(
ξ
1
,
ξ
2
,
.
.
.
,
ξ
n
)
(
λ
1
.
.
.
λ
n
)
,
即
A
ξ
i
=
λ
i
ξ
i
,
也
就
是
特
征
值
和
特
征
向
量
=(\xi_1,\xi_2,...,\xi_n)\left(\begin{matrix}\lambda_1&&\\&...&\\&&\lambda_n\end{matrix}\right),即A\xi_i=\lambda_i\xi_i,也就是特征值和特征向量
=(ξ1,ξ2,...,ξn)⎝⎛λ1...λn⎠⎞,即Aξi=λiξi,也就是特征值和特征向量
欢迎扫描二维码关注微信公众号 深度学习与数学 [每天获取免费的大数据、AI等相关的学习资源、经典和最新的深度学习相关的论文研读,算法和其他互联网技能的学习,概率论、线性代数等高等数学知识的回顾]