PCA

PCA

PCA 主成成分分析 (Principal Component Analysis)
pca的作用:数据降维
PCA实际操作的时候都要经过哪些步骤?
1.整理原始矩阵X(m*4)
2.求原始矩阵X的协方差矩阵  S(4*4) = Cov(X) = 1/m * (X - EX)*(X-EX)T
3.求协方差矩阵的特征值特征向量
4.将特征向量按对应特征值大小从上到下按行排列成矩阵,取前 k 列组成矩阵 P
5.Y = X(m*n)*P(n*k) 即为降维到 k 维后的数据
补充:
	SVD A(m*n) = U(m*m)A(m*n)VT(n*n)  ≈ U(m*k)A(k*k)VT(k*n)  其中k <= min(m,n)


对X进行PCA降维变4维到3维

X= [[1, 2, 1, 1],
    [3, 3, 1, 2],
    [3 ,5, 4, 3],
    [5 ,4, 5 ,4],
    [5, 6, 1, 5],
    [6, 5 ,2, 6],
    [8 ,7, 1, 2],
    [9 ,8, 3, 7]] #(每行一个样本,每列为一维特征,共4维特征)
#1.求均值
import numpy as np
X = np.array(X,dtype='i2')
EX = X.mean(axis=0)

#2.去中心化
NewX = X - EX

#3.求样本的协方差
CovX = np.dot(NewX.T,NewX) / NewX.shape[0]

#4.求特征根
EigenValue,EigenVector = np.linalg.eig(CovX)

#5.对特征根排序
minValue  = np.min(EigenValue)
lossIndex = None
for i,v in enumerate(EigenValue) :
    if minValue == v:  # NewEVa[-1]
        lossIndex = i
NewEigenVector1 = EigenVector[...,:lossIndex]
NewEigenVector2 = EigenVector[...,lossIndex+1:]
NewEigenVector = np.concatenate((NewEigenVector1,NewEigenVector2),axis=1)

#6.Y= XP得到结果
ResultY = np.dot(X,NewEigenVector)
print(ResultY)
#直接使用现成包
import numpy as np
from sklearn.decomposition import PCA
pca = PCA(n_components=3)
newX = pca.fit(X)
newX = pca.transform(X)
print(newX)

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值