特征值与特征向量_矩阵的特征值和特征向量

e6a999c1d347d145954942c6489c4342.png

不少学习过线性代数的同学可能都有这样的疑惑,就是线性代数到底是什么?我们算的这些东西究竟有什么用?回忆起这门课来可能仅有的印象也就是矩阵、向量、还有一个特征什么来着?

线性代数是一门相对较为年轻的学科,起源于十九世纪。其最初的作用是求解线性方程组。方程组尤其是当未知数的个数非常多的情况下,计算量是相当大的。但有了矩阵计算的这个工具后,计算方程组就变得十分简便了。随着这一学科的发展,其应用也变得更为广泛,比如未知数比方程个数多的情况,或无解的情况(没有一条直线能够无误差地满足所有方程)。

在我看来,线性代数同时也是一门数据科学中的重要学科,因为矩阵、向量就是直接用来描述量化数据的最好的工具。同时,线性代数在几何上也有着重要的应用。我们知道向量是既有大小又有方向的量,由向量定义了向量空间,以及在其中的直线、平面、超平面等,以及他们之间的线性关系。比如线性方程组,

写成矩阵的形式

矩阵A的作用相当于在二维空间中将向量(x,y)变换为(3,-1)。而A的逆矩阵

的作用就是按照A将(x,y)变成(3,1)的变换轨迹将(3,-1)变回到(x,y)。

这个矩阵能够将
变换为
,将
变成

可以发现,向量在变换之后,其方向发生了变化。那么,有没有这样的矩阵,将向量变换完之后,得到的新向量与原来的向量的方向相同呢?

下面就要介绍矩阵的特征向量与特征值了。

对于矩阵

和向量
,如果新得到的向量与原向量是同向的,那么

的结果是一个与v同向的向量,可以表示为
为常数,也即

也就是说,满足这个等式的向量就是经矩阵

变换后方向不变的向量了。这样的向量就叫做特征向量(eigenvector),这个
就是向量被拉伸或压缩的倍数,称为特征值(eigenvalue)。

下面我们试着求一下一个矩阵的特征值和特征向量。

为了计算过程的直观,我们考虑二维矩阵

的特征值和特征向量。

由特征向量的定义,我们知道

其中

为同阶的单位矩阵。

如果

为非零向量的话,

时,

就是一个特征向量,也就是说这个向量经过矩阵A的转换后,得到的向量是与原向量相同方向的向量。特征值是经过矩阵A的转换后,新的与原向量同向的向量v的伸缩倍数。例如,对于一个三阶矩阵A来说,其特征向量的方向就是矩阵A对任意向量变换时的旋转轴。

特征向量和特征值是线性代数研究中的一个重要工具,其在图像处理和数据处理等等许多领域都发挥着重要作用。希望这篇文章能够让矩阵和向量看上去不再那么毫无意义。

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值