Python进行PCA降维
值得参考:
https://www.cnblogs.com/pinard/p/6243025.html
# 为什么要进行PCA?
# s1:降维,进行可视化。
# 找矩阵,数据背后的主成分?
from sklearn.decomposition import PCA
import pandas as pd
import numpy as np
dataMat = np.random.random((10,10))
pca_sk = PCA(n_components=2)
newMat = pca_sk.fit_transform(dataMat)
#PCA降维之后的结果如何解释?
#高维数据空间的可视化?
降维之后进行可视化
plt.scatter(X_new[:, 0], X_new[:, 1],marker='o')
plt.show()
# 为什么要进行PCA?
# s1:降维,进行可视化。
# 找矩阵,数据背后的主成分?
from sklearn.decomposition import PCA
import pandas as pd
import numpy as np
import matplotlib.pyplot as plt
dataMat = np.random.random((1000,1000))
pca_sk = PCA(n_components=2)
newMat = pca_sk.fit_transform(dataMat)
#PCA降维之后的结果如何解释?
plt.scatter(newMat[:, 0], newMat[:, 1],marker='o')
plt.show()
#高维数据空间的可视化?
可以看到当上升到1000维度时,降维之后,呈现出了高斯分布。