最近在看Normalized Cut算法相关的论文时,遇到一个概念:smallest eigenvector(最小特征向量)。百度google均没有看到直接的定义,在看了很多间接对其的说明之后,个人认为如下,不正之处,还望指正。
首先我们知道,对于一个矩阵A,如果有非零向量x,使得Ax = ax,那么a则为矩阵A的一个特征值,而x为其对应的特征向量。学过线性代数的都知道,特征值跟特征向量之间不是一一对应的。一方面,矩阵可能存在重根(这个时候一个特征值可能对应多个特征向量);另一方面,我们可以在等式左右两边乘以任意非零实数,等式仍然成立,因而去衡量特征向量的大小是无意义的。当然通常情况下,我们说一个特征值对应的特征向量是不考虑前面的系数的。设矩阵A是n×n维的,则特征值个数为n(重根重复计算),而且特征值的模是可以比较大小的,我们可以将其进行排序,如a1<=a2<=……<=an,那么a1对应的特征向量即为最小特征向量。类似地,a2对应的特征向量为第二小特征向量。