线代之几何重数&代数重数特征向量的理解(1)

线代之几何重数&代数重数特征向量的理解(1)


前言

因为线性代数并没有讲过约当标准型,所以导致我们在学习现代控制理论的时候一脸懵,今天来对自己理解的一些东西做一个非常浅显的总结,并且对很久之前学过的线性代数一些内容做复习


正文

首先我们来看特征值、特征向量的定义

设 A 为 n 阶方阵,如果存在 λ \lambda λ和 n 维非零向量 α \alpha α使得

A α = λ α A\alpha=\lambda\alpha Aα=λα

则我们把 λ \lambda λ称为方阵的一个特征值 α \alpha α称为方阵 A 对应于特征值 λ \lambda λ的一个特征向量
首先求特征值用到的公式是
det ⁡ ( λ ∗ I − A ) = 0 \det(\lambda*I-A)=0 det(λIA)=0
这里有两个性质比较有意思
λ 1 + λ 2 + . . . + λ n = t r ( A ) \lambda1+\lambda2+...+\lambda_n=tr(A) λ1+λ2+...+λn=tr(A)
λ 1 λ 2 ⋅ ⋅ ⋅ λ n = det ⁡ A \lambda1\lambda2···\lambda_n=\det A λ1λ2⋅⋅⋅λn=detA
即所有特征值之和等于矩阵 A 的对角线上的元的和
所有特征值之积等于 A 的行列式的值

化简特征方程

我们知道特征方程最后解出来是特征值,所以我们可以把方程的形式表示为一个根次方乘积的形式,即:
∣ λ I − A ∣ = ( λ − λ 1 ) k 1 ( λ − λ 2 ) k 2 ⋅ ⋅ ⋅ ( λ − λ n ) k n |\lambda I-A|=(\lambda-\lambda_1)^{k1}(\lambda-\lambda_2)^{k2}···(\lambda-\lambda_n)^{kn} λIA=(λλ1)k1(λλ2)k2⋅⋅⋅(λλn)kn

那么这里的 λ 1 到 λ n \lambda_1到\lambda_n λ1λn就是解出来的特征值
k 1 到 k n k_1到k_n k1kn代表对应特征值的重根数

例如:
∣ λ I − A ∣ = ( λ − 2 ) 2 ( λ + 7 ) 1 |\lambda I-A|=(\lambda-2)^{2}(\lambda+7)^{1} λIA=(λ2)2(λ+7)1

其中:
λ 1 \lambda_1 λ1的解为 2,重根数 2 个,代数重数等于重根数,等于 2 个
λ 2 \lambda_2 λ2的解为-7,重根数 1 个,代数重数等于重根数,等于 1 个

请注意,这里描述的代数重数都是指 λ \lambda λ的代数重数

那么在说到几何重数之前就必须讲讲特征子空间

特征子空间

定义:
V λ V_\lambda Vλ即特征子空间指的是对方阵 A 来说,对应的特征值的所有的特征向量和零向量所组成的空间集合
大白话就是分别代入所有的特征值进去解 x,也就是特征向量: ( λ 1... n I − A ) x = 0 (\lambda_{1...n} I-A)x=0 (λ1...nIA)x=0
请还是注意,这里的特征子空间还是对于特定的特征值来说的

几何重数

为什么要强调这个,因为和几何重数的定义息息相关

几何重数就定义成:
λ i \lambda_i λi的特征子空间 V λ i V_{\lambda i} Vλi的维数
其中可以证明:特征值的几何重数不大于它的代数重数

关于几何重数有公式可以表达
几何重数 = d i m ( V λ ) = n − R ( λ I − A ) 几何重数=dim(V_\lambda)=n-R(\lambda I-A) 几何重数=dim(Vλ)=nR(λIA)

就是 λ \lambda λ带入方程后所得到的方程缺少的秩的数目

实例

求解
A = ( 1 − 2 2 − 2 − 2 4 2 4 − 2 ) 的特征值与特征向量,特征子空间 A=\begin{pmatrix} 1 & -2 & 2 \\ -2 & -2 &4 \\ 2 & 4 & -2 \end{pmatrix}的特征值与特征向量,特征子空间 A= 122224242 的特征值与特征向量,特征子空间


解:
∣ λ I − A ∣ = ( λ − 2 ) 2 ( λ + 7 ) 1 |\lambda I-A|=(\lambda-2)^{2}(\lambda+7)^{1} λIA=(λ2)2(λ+7)1
λ 1 \lambda_1 λ1的解为 2,重根数 2 个
λ 2 \lambda_2 λ2的解为-7,重根数 1 个

λ 1 \lambda_1 λ1带入后变成 ( 2 I − A ) x = 0 (2I-A)x=0 (2IA)x=0
化简得到
x 1 + 2 x 2 − 2 x 3 = 0 x_1+2x_2-2x_3=0 x1+2x22x3=0
三个未知数一个方程
我们需要解出解系,我们令 x 1 = − 2 k 1 , x 2 = k 1 x_1=-2k_1,x_2=k_1 x1=2k1,x2=k1解得 x 3 = 0 x_3=0 x3=0
解出第一个特征向量 α 1 \alpha_1 α1

α 1 = k 1 ( − 2 1 0 ) \alpha_1=k1\begin{pmatrix} -2 \\ 1 \\ 0 \end{pmatrix} α1=k1 210

同理解出第二个特征向量 α 2 \alpha_2 α2

α 2 = k 2 ( 2 0 1 ) \alpha_2=k2\begin{pmatrix} 2 \\ 0 \\ 1 \end{pmatrix} α2=k2 201

其中 k1,k2 不同时为 0

我们带入 λ 2 \lambda_2 λ2带入后解 ( − 7 I − A ) x = 0 (-7I-A)x=0 (7IA)x=0

{ 2 x 1 + x 3 = 0 x 2 + x 3 = 0 \left\{ \begin{aligned} 2x_1+x_3= 0\\ x_2+x_3=0 \end{aligned} \right. {2x1+x3=0x2+x3=0

解出

α 3 = k 3 ( 1 2 − 2 ) \alpha_3=k3\begin{pmatrix} 1 \\ 2 \\ -2 \end{pmatrix} α3=k3 122

那么根据定义,

V λ 1 = ( α 1 , α 2 , 0 ) V_{\lambda_1}=\begin{pmatrix} \alpha_1 , \alpha_2 ,0 \end{pmatrix} Vλ1=(α1,α2,0)

就是 λ 1 \lambda_1 λ1 λ 2 \lambda_2 λ2的特征子空间

V λ 3 = ( α 3 , 0 ) V_{\lambda_3}=\begin{pmatrix} \alpha_3,0 \end{pmatrix} Vλ3=(α3,0)

就是 λ 3 \lambda_3 λ3的特征子空间,那么对于 λ 1 , λ 2 \lambda_1,\lambda_2 λ1,λ2来说,它们的几何重数为 dim ⁡ ( V λ 1 ) \dim(V_{\lambda_1}) dim(Vλ1) dim ⁡ ( V λ 2 ) \dim(V_{\lambda_2}) dim(Vλ2),特征子空间的维度就等于基向量个数,这里有两个基向量 α 1 , α 2 \alpha_1,\alpha_2 α1,α2所以几何重数就是 2
对于 λ 3 \lambda_3 λ3来说只有一个基向量,所以就是几何重数为 1

总结

关于特征值的几何重数不大于它的代数重数的证明,可以看这里的回答
https://www.zhihu.com/question/414388172

那么下一篇将会讲约当标准型、广义特征向量和几何重数代数重数之间的关系

(逃)


2023年 2月14日 星期2 1时 11分 52秒

关于

作者:bigonion
邮箱:bigonion@bigonion.cn
NameSpace: 大聪花家
Origin: 大聪花的博客
Powered by markdown在线编辑
声明:未经本人同意,禁止转载、搬运、抄袭!


传送门

线性代数之几何重数&代数重数的理解(二)-矩阵指数的求解

  • 11
    点赞
  • 16
    收藏
    觉得还不错? 一键收藏
  • 1
    评论
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值