主成分分析步骤如下:
设有条维数据
1. 将原始数据按列组成行列矩阵 ;
2. 将矩阵 的每一行进行零均值化;
3. 求出协方差矩阵;
4. 求出协方差矩阵的特征值及对应的特征向量;
5. 将特征向量按对应特征值大小从上到下按行排列成矩阵,取前行组成矩阵 ;
6. 即为降维到维后的数据。
如果对线性代数的实对成矩阵的相似对角化熟悉的人可以很好的了解上面的步骤,根据线性代数的求解步骤如下(也可以是代码步骤,python的np有求解方法):
1. 将原始数据按列组成行列矩阵 ;
2. 将矩阵 的每一行进行零均值化;
这里的每一行零均值化就是每一行的元素减去该行的均值,均值可以用np.mean()求解。
3.求出协方差矩阵;这个矩阵实际上就是实对称矩阵。
4.求出协方差矩阵的特征值及对应的特征向量;
这里其实就是对实对称矩阵相似对角化,在相似对角化的过程中会得到特征值和对应的特征向量,得到的对角矩阵的对角线上的元素就是特征值,对角线以外的元素都为0。(当然,要对这组特征向量进行正交化,因为我们最终要的是正交向量,如果在这里不求,也可以在最后一步求个向量的正交向量,计算量肯定比现在求小,因为现在要求个向量,而最后只需要求个)。
5. 将特征向量按对应特征值大小从上到下按行排列成矩阵,取前行组成矩阵 ;
6.这里就是对特征值做从大到小的排序,可以用np.sorted()函数排序。
7.然后根据排序取前行的向量组成一个新的矩阵。
主成分分析实现的python代码如下:
// 用python实现主成分分析(PCA)
import numpy as np
from numpy.linalg import eig
from sklearn.datasets import load_iris
def pca(X,k):
X = X - X.mean(axis = 0) #向量X去中心化
X_cov = np.cov(X.T, ddof = 0) #计算向量X的协方差矩阵,自由度可以选择0或1
eigenvalues,eigenvectors = eig(X_cov) #计算协方差矩阵的特征值和特征向量
klarge_index = eigenvalues.argsort()[-k:][::-1] #选取最大的K个特征值及其特征向量
k_eigenvectors = eigenvectors[klarge_index] #用X与特征向量相乘
return np.dot(X, k_eigenvectors.T)
iris = load_iris()
X = iris.data
k = 2
X_pca = pca(X, k)
print(X_pca)