特征值分解:特征值,特征向量,特征向量矩阵

特征值,特征向量,特征向量矩阵
一图胜千言:
在这里插入图片描述

特征向量矩阵S,由矩阵A的所有线性无关的特征向量按列排列(从大到小)组成的矩阵。
特征值矩阵,有矩阵A的所有特征值放在对角线位置组成的对角矩阵。

  1. 特征值和特征向量
    在这里插入图片描述
    在这里插入图片描述
  2. 特征值分解的物理意义(转载)

矩阵的特征值分解目的就是提取出一个矩阵最重要的特征。

在这里插入图片描述在这里插入图片描述
这其实是在平面上对一个轴进行的拉伸变换(如蓝色的箭头所示),在图中,蓝色的箭头是一个最主要的变化方向(变化方向可能有不止一个),如果我们想要描述好一个变换,那我们就描述好这个变换主要的变化方向就好了。

反过头来看看之前特征值分解的式子,分解得到的Σ矩阵是一个对角阵,里面的特征值是由大到小排列的,这些特征值所对应的特征向量就是描述这个矩阵变化方向(从主要的变化到次要的变化排列)。

当矩阵是高维的情况下,那么这个矩阵就是高维空间下的一个线性变换,这个线性变化可能没法通过图片来表示,但是可以想象,这个变换也同样有很多的变换方向,我们通过特征值分解得到的前N个特征向量,那么就对应了这个矩阵最主要的N个变化方向。我们利用这前N个变化方向,就可以近似这个矩阵(变换)。也就是之前说的:提取这个矩阵最重要的特征

总结一下,特征值分解可以得到特征值与特征向量,特征值表示的是这个特征到底有多重要,而特征向量表示这个特征是什么,可以将每一个特征向量理解为一个线性的子空间,我们可以利用这些线性的子空间干很多的事情。不过,特征值分解也有很多的局限,比如说变换的矩阵必须是方阵

什么是特征矩阵?
矩阵里涉及“特征”二字的都和λE-A有关,行列式|λE-A|是关于λ的一个多项式,称为A的特征多项式, 而|λE-A|=0是一个方程,它的根就称作A的特征值,同理矩阵λE-A就称为A的特征矩阵

  • 补充一:2. 中提到的“Q是这个矩阵A 的特征向量组成的矩阵”,这里特征向量如何组成矩阵呢?
    我们知道,特征向量对应的特征值是唯一的。所以,这里将按特征值从大到小排序,再把排序后的特征值对应的特征向量(取前N个)组成新矩阵。

  • 补充二: 如何求矩阵的特征向量?概括如下:
    1.先求出矩阵的特征值: |A-λE|=0
    2.对每个特征值λ求出(A-λE)X=0的基础解系a1,a2,…,as
    3.A的属于特征值λ的特征向量就是 a1,a2,…,as 的非零线性组合在这里插入图片描述

  • 补充三 A = Q ∧ Q − 1 A = Q\wedge Q^{-1} A=QQ1官方说明 。这里的Q如果是对称阵可以写成 A = Q ∧ Q T A = Q\wedge Q^{T} A=QQT,具体见官方说明。

  • 16
    点赞
  • 52
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值