今天和大家聊一个非常重要,在机器学习领域也广泛使用的一个概念——矩阵的特征值与特征向量。
我们先来看它的定义,定义本身很简单,假设我们有一个n阶的矩阵A以及一个实数\(\lambda\),使得我们可以找到一个非零向量x,满足:
\[Ax=\lambda x
\]
如果能够找到的话,我们就称\(\lambda\)是矩阵A的特征值,非零向量x是矩阵A的特征向量。
几何意义
光从上面的式子其实我们很难看出来什么,但是我们可以结合矩阵变换的几何意义,就会明朗很多。
我们都知道,对于一个n维的向量x来说,如果我们给他乘上一个n阶的方阵A,得到Ax。从几何角度来说,是对向量x进行了一个线性变换。变换之后得到的向量y和原向量x的方向和长度都发生了改变。
但是,对于一个特定的矩阵A来说,总存在一些特定方向的向量x,使得Ax和x的方向没有发生变化,只是长度发生了变化。我们令这个长度发生的变化当做是系数\(\lambda\),那么对于这样的向量就称为是矩阵A的特征向量,\(\lambda\)就是这个特征向量对应的特殊值。
求解过程
我们对原式来进行一个很简单的变形:
\[(A-\lambda I)x = 0
\]
这里的I表示单位矩阵,如果把它展开的话,可以得到一个n元的齐次线性方程组。这个我们已经很熟悉了,这个齐次线性方程组要存在非零解,那么需要系数行列式
\[|A-\lambda I|
\]
不为零,也就是系数矩阵的秩小于n。
我们将这个行列式展开:
\[\left|
\begin{matrix}

本文介绍了矩阵的特征值与特征向量的概念,包括定义、几何意义、求解过程和案例分析。强调了在机器学习中,理解这些概念的重要性,并提及Python中使用numpy库求解特征值和特征向量的方法。
最低0.47元/天 解锁文章

被折叠的 条评论
为什么被折叠?



