import matplotlib.pyplot as plt
import numpy as np
from sklearn.datasets import load_iris
from sklearn.decomposition import PCA
'''
https://blog.csdn.net/HLBoy_happy/article/details/77146012
X=np.array([[2,0,-1.4],[2.2,0.2,-1.5],[2.4,0.1,-1],[1.9,0,-1.2]])
print(np.mean(X,axis=0))#axis=0 对各列求均值
print(np.cov(np.array(X).T))#求协方差矩阵
#求特征值和特征向量
w,v=np.linalg.eig(np.array([[1,-2],[2,-3]]))
print('特征值:{}\n特征向量:{}'.format(w,v))
#PCA第一步是用样本数据减去样本均值 然后计算数据主成分
#数据的主成分就是其协方差矩阵的特征向量按对应的特征值大小排序得到的
#主成分可以通过两种方法计算 1 计算数据协方差矩阵 计算特征值和特征向量
#二种方法是用数据矩阵的奇异值分解(singular value decomposition)来找协方差矩阵的特征向量和特征值的平方根
x = np.mat([[ 0.9, 2.4, 1.2, 0.5, 0.3, 1.8, 0.5, 0.3, 2.5, 1.3],
[ 1, 2.6, 1.7, 0.7, 0.7, 1.4, 0.6, 0.6, 2.6, 1.1]])#Numpy matrices必须是2维的,但是 numpy arrays (ndarrays) 可以是多维的
x=x.T
T = x-x.mean(axis=0)
#print(T)
C = np.cov(x.T)
#print(C)
w,v=np.linalg.eig(C)
#print(w,v)
v_=np.mat(v[:,0])#每个特征值对应的是特征矩阵的每个列向量
print(v_)#默认以行向量保存,转换成公式中的列向量形式
v_=v_.T
y= T * v_
print(y)
'''
'''
高纬数据可视化
https://yq.aliyun.com/articles/64932
'''
data = load_iris()
y = data.target
X = data.data
pca = PCA(n_components=2)#表示降低为2维度
reduced_X = pca.fit_transform(X)
red_x, red_y = [], []
blue_x, blue_y = [], []
green_x, green_y = [], []
for i in range(len(reduced_X)):
if y[i] == 0:
red_x.append(reduced_X[i][0])
red_y.append(reduced_X[i][1])
elif y[i] == 1:
blue_x.append(reduced_X[i][0])
blue_y.append(reduced_X[i][1])
else:
green_x.append(reduced_X[i][0])
green_y.append(reduced_X[i][1])
plt.scatter(red_x, red_y, c='r', marker='x')
plt.scatter(blue_x, blue_y, c='b', marker='D')
plt.scatter(green_x, green_y, c='g', marker='.')
plt.show()
PCA降维
最新推荐文章于 2019-06-06 13:29:13 发布