不少学习过线性代数的同学可能都有这样的疑惑,就是线性代数到底是什么?我们算的这些东西究竟有什么用?回忆起这门课来可能仅有的印象也就是矩阵、向量、还有一个特征什么来着?
线性代数是一门相对较为年轻的学科,起源于十九世纪。其最初的作用是求解线性方程组。方程组尤其是当未知数的个数非常多的情况下,计算量是相当大的。但有了矩阵计算的这个工具后,计算方程组就变得十分简便了。随着这一学科的发展,其应用也变得更为广泛,比如未知数比方程个数多的情况,或无解的情况(没有一条直线能够无误差地满足所有方程)。
在我看来,线性代数同时也是一门数据科学中的重要学科,因为矩阵、向量就是直接用来描述量化数据的最好的工具。同时,线性代数在几何上也有着重要的应用。我们知道向量是既有大小又有方向的量,由向量定义了向量空间,以及在其中的直线、平面、超平面等,以及他们之间的线性关系。比如线性方程组,
写成矩阵的形式
矩阵A的作用相当于在二维空间中将向量(x,y)变换为(3,-1)。而A的逆矩阵
如
可以发现,向量在变换之后,其方向发生了变化。那么,有没有这样的矩阵,将向量变换完之后,得到的新向量与原来的向量的方向相同呢?
下面就要介绍矩阵的特征向量与特征值了。
对于矩阵
也就是说,满足这个等式的向量就是经矩阵
下面我们试着求一下一个矩阵的特征值和特征向量。
为了计算过程的直观,我们考虑二维矩阵
由特征向量的定义,我们知道
其中
如果
特征向量和特征值是线性代数研究中的一个重要工具,其在图像处理和数据处理等等许多领域都发挥着重要作用。希望这篇文章能够让矩阵和向量看上去不再那么毫无意义。