为什么要用到SVD分解?
从特征值和特征向量说起:
首先回顾下特征值和特征向量的定义:其中A是一个m*m的实对称矩阵,x是一个m维向量,则我们说λ是矩阵A的一个特征值,而x是矩阵A的特征值λ所对应的特征向量。
求出特征值和特征向量有什么好处呢? 就是我们可以将矩阵A特征分解。假设我们已经求出了矩阵A的m个特征值:,以及这m个特征值所对应的特征向量
。若这m个特征向量线性无关,那么矩阵A就可以用下式的特征分解表示:
从特征值和特征向量说起:
首先回顾下特征值和特征向量的定义:其中A是一个m*m的实对称矩阵,x是一个m维向量,则我们说λ是矩阵A的一个特征值,而x是矩阵A的特征值λ所对应的特征向量。
求出特征值和特征向量有什么好处呢? 就是我们可以将矩阵A特征分解。假设我们已经求出了矩阵A的m个特征值:,以及这m个特征值所对应的特征向量
。若这m个特征向量线性无关,那么矩阵A就可以用下式的特征分解表示: