关于smallest eigenvector的理解

         最近在看Normalized Cut算法相关的论文时,遇到一个概念:smallest eigenvector(最小特征向量)。百度google均没有看到直接的定义,在看了很多间接对其的说明之后,个人认为如下,不正之处,还望指正。

         首先我们知道,对于一个矩阵A,如果有非零向量x,使得Ax = ax,那么a则为矩阵A的一个特征值,而x为其对应的特征向量。学过线性代数的都知道,特征值跟特征向量之间不是一一对应的。一方面,矩阵可能存在重根(这个时候一个特征值可能对应多个特征向量);另一方面,我们可以在等式左右两边乘以任意非零实数,等式仍然成立,因而去衡量特征向量的大小是无意义的。当然通常情况下,我们说一个特征值对应的特征向量是不考虑前面的系数的。设矩阵A是n×n维的,则特征值个数为n(重根重复计算),而且特征值的模是可以比较大小的,我们可以将其进行排序,如a1<=a2<=……<=an,那么a1对应的特征向量即为最小特征向量。类似地,a2对应的特征向量为第二小特征向量。

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值