《线性代数》特征值与特征向量

引入

最近闲来无事,复习了一下《线性代数》的知识。以前只会做题,对于矩阵的特征值与特征向量几乎没啥实质性了解,现在借着这个机会梳理一遍。
注:矩阵的特征值与特征向量是只是针对方阵而言。

基本定义(取自张宇老师《线性代数9讲》)

设A是n阶方阵,λ是一个数,若存在n维非零列向量ν≠0,使得

A ν = λ ν ( 1 ) Aν=λν(1) Aν=λν(1)

则称λ是A的特征值,ν是A的对应于特征值λ的特征向量。

引入意义

许多数学对象可以通过将它们分解成多个组成部分,或者找到它们的一些属性而更好地理解。
需要注意的是,这些属性是通用的,并且会因为不同的表达方式而呈现出不同的性质,从而得到不同的信息。
在此我们不妨举个例子,在程序中,我们既可以将一个十进制的正整数用二进制或者十六进制的形式来表示,也写成几个因数的乘积,比如 24 = 2 × 3 × 4 24=2×3×4 24=2×3×4。从这个表示中我们可以知道:24的倍数可以被3整除、24不能被5整除等。
正如可以将一个正整数通过因数分解的方式来发现一些规律,我们也可以通过分解矩阵来发现矩阵表示成数组元素时不明显的函数性质。
这就是我们今天要梳理的内容。

特征分解

特征分解(Eigendecomposition),又称谱分解(Spectral decomposition)是将矩阵分解为由其特征值和特征向量表示的矩阵之积的方法。
对于(1)式如果 v 是 A 的特征向量,那么任何放缩后的向量 sv(s ∈ R,s ≠0) 也是 A 的特征向量,且,sv 和 v 有相同的特征值。
假设矩阵 A 有 n 个线性无关的特征向量 {v(1), . . . , v(n)},对应着特征值
{λ1, . . . , λn}。我们将特征向量连接一个矩阵,使得每一列是一个特征向量:V =
[v(1), . . . , v(n)]。类似地,我们也可以将特征值连接成一个向量 λ = [λ1, . . . , λn]。因此 A 的特征分解 (eigendecomposition) 可以记作

A = V d i a g ( λ ) V − 1 ( 2 ) A= Vdiag(λ)V^{−1}(2)

  • 1
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值