【线性代数公开课MIT Linear Algebra】 第二十一课 特征值与特征向量

本系列笔记为方便日后自己查阅而写,更多的是个人见解,也算一种学习的复习与总结,望善始善终吧~

何为特征向量、特征值


Ax 就好比f(x),这是一种针对多维的操作,而我们关心的就是经过变换后方向不变的向量即 Ax=λx ,x就是特征向量, λ 就是特征值。

我们的目的就是要找到矩阵 A 的所有特征值和对应的特征向量,很自然的我们会关注存在λ为零的情况,此时要想特征向量 x 存在,那么就等于要使得Ax=0中的 A 为奇异矩阵Singular Matrix,反之,当A为奇异矩阵Singular Matrix,则0为其中一个特征值,特征向量在其null space。

试试看不同矩阵有何特性吧,对于投影矩阵,很明显在其column space中的vector的投影就是它自己,其方向不变,故存在特征值为1的特征向量,还有一个什么样的向量?垂直于column space的,因为垂直时投影为0,存在特征值为0的特征向量(垂直于column space)。

剧透关于特征值的性质

nn 矩阵有 n 个特征值;特征值的和等于矩阵对角线上所有元素的和,这被称为迹trace;特征值的积等于行列式的值。

回到Ax=λx

Ax=λx
(AλI)x=0
(AλI)
det(AλI)=0
这个方程就是求解特征值的核心,有了方程我们就可以解出特征值,有了特征值就能求解对应的特征向量。

好玩的性质

对于 A 矩阵和A+3I这个矩阵的特征值和特征向量有什么特点?
Ax=λx (A+3I)=λx+3x=(λ+3)x
所以特征向量不变,特征值加3,这或许从另一个角度帮助我们理解何为“特征”。

一些特殊的情况

这里写图片描述
这东西看起来没有特征向量,貌似我们找不到一个旋转90度后是其本身的向量
这里写图片描述
看具体的方程,好吧,我们发现了,解居然是复数,这下麻烦了,现在要在线性代数引入复数啊!难怪老师说这里会是问题的根源。
回过头来观察一下,你会发现越是接近对称的矩阵,其值就越是倾向于实数,而越是接近反对称的矩阵,其值就越是倾向于复数。

更糟糕的情况

老师说:这节课把所有麻烦的情况都讲了,这样我们下节课就可以开心了。哎,我们经历了有解,看似无解实则有复数解,差一个看似有解结果解一样和无解。老师讲了一个有重复解:
这里写图片描述
这个情况下我们只能解出一个特征向量,这样的矩阵我们称呼为退化矩阵。

PS:另一位仁兄的笔记
http://blog.csdn.net/suqier1314520/article/details/13998953

  • 2
    点赞
  • 3
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值