-对于正定的对称矩阵,奇异值等于特征值,奇异向量等于特征向量。在这种情况下用奇异值分解就把特征值和特征向量求出来了。但是只要是方阵,它就有特征值和特征向量,对于一般的方阵,特征值和特征向量怎么求呢(当然我指的是数值求法)?这就要用本文即将介绍的“幂法”。
Power Method幂法
Definition 如果λ1是矩阵A的所有特征值中绝对值最大的那一个,则称λ1是A的主特征值;与λ1对应的特征向量v1是A的主特征向量。
幂法是用来计算方阵的主特征值(即绝对值最大的特征值)和主特征向量的。由此延伸出来的反幂法用来计算在给定点附近的特征值和特征向量(下文把“特征值和特征向量”简称为“特征对”)。
Definition 特征向量V的归一化是指:V的每一个元素除以V中绝对值最大的那个元素。
Theorem(Power Method) 设A是n×n的方阵,有n个不同的特征值,且|λ1| > |λ2| >= |λ3| >= ... >= |λn|。选择一个合适的X0,序列和{ck}由下列递归式产生:
其中
经过多次迭代后Xk趋于主特征向量V1,ck趋于主特征值λ1。
Remark 如果X0选取的刚好是一个特征向量,且X0又不是主特征向量,则X0需要重新选取。
Speed of Convergence收敛加速
幂法的收敛速度取决于,也就是说它的收敛速度是线性的。Aitken
加速法可用于任何线性收敛的序列当中,它采用的加速方式是:
用Aitken来加速我们的幂法,Xk的调整公式为:
Shifted-Inverse Power Method平移反幂法
使用位移反幂法首先需要提供一个好的起始点