将N阶对称矩阵A分解,用N个特征向量Q和特征值 Σ 来表示,不同特征值对应的特征向量是相互正交的。
特征向量和特征值可以很好的描述原始矩阵,方便实际应用。将矩阵投影在特征向量上,特征值即投影长度。特征值越大,表示矩阵在对应特征向量上信息量越大,导数越大。反之,特征值越小,表示信息量较少,也可删除对应特征向量上的数据,降维减少数据量。可应用于最优化求解,图像处理(如特征点描述和特征提取等),数据挖掘(如数据降维等)。
详见链接:知乎上很多大牛,会把很多貌似很深奥的东西解释的很容易理解。http://www.zhihu.com/question/21874816
另该链接上降维协方差矩阵计算写的比较模糊,可以参考PCA主成份分析http://www.360doc.com/content/14/0526/06/15831056_380900310.shtml
其中3个维度协方差计算公式
Matlab代码(其中A为样品矩阵)
C = cov(A)
简化求法
先让样本矩阵中心化,即每一维度减去该维度的均值,然后直接用新的到的样本矩阵乘上它的转置,然后除以(N-1)即可。计算结果与上述相同。
Matlab代码(其中A为样品矩阵,n为样品数)
B= A-repmat(mean(A),n,1); C = B'*B/(n-1)