SVD(奇异值分解,Singular Value Decomposition)是一种在线性代数和数值分析中常用的矩阵分解方法。对于任意的实矩阵,SVD 将该矩阵分解为三个矩阵的乘积:
[ A = U \Sigma V^T ]
其中:
- ( A ) 是一个 ( m \times n ) 的实矩阵。
- ( U ) 是一个 ( m \times m ) 的正交矩阵(其列向量是 ( A A^T ) 的特征向量)。
- ( \Sigma ) 是一个 ( m \times n ) 的矩形对角矩阵,对角线上的元素称为奇异值。
- ( V^T ) 是一个 ( n \times n ) 的正交矩阵(其列向量是 ( A^T A ) 的特征向量)。
SVD 有许多应用,其中之一是数据降维和去噪。在数据分析中,通过保留最大的奇异值,可以获得最重要的特征,从而实现降维。在去噪方面,通过保留相对较大的奇异值,可以重构原始数据并过滤掉噪声。这使得 SVD 成为信号处理、图像处理和机器学习等领域中的重要工具。