使用主成分分析(PCA)方法对数据进行降维

我们知道当数据维度太大时,进行分类任务时会花费大量时间,因此需要进行数据降维,其中一种非常流行的降维方法叫主成分分析。

From [百度百科]

Exploratory Data Analysis

鸢尾花数据集:

import numpy as np
from sklearn.datasets import load_iris

iris = load_iris()

type(iris.data) # numpy.ndarray
type(iris.target) # numpy.ndarray

print iris.feature_names
print iris.target_names

X = iris.data
y = iris.target
Out:
['sepal length (cm)', 'sepal width (cm)', 'petal length (cm)', 'petal width (cm)']
['setosa' 'versicolor' 'virginica']

4个特征:花萼长度、花萼宽度、花瓣长度、花瓣宽度
3个分类:山鸢尾、变色鸢尾、维吉尼亚鸢尾

前十个样本特征值如下:

[[5.1, 3.5, 1.4, 0.2],
 [4.9, 3. , 1.4, 0.2],
 [4.7, 3.2, 1.3, 0.2],
 [4.6, 3.1, 1.5, 0.2],
 [5. , 3.6, 1.4, 0.2],
 [5.4, 3.9, 1.7, 0.4],
 [4.6, 3.4, 1.4, 0.3],
 [5. , 3.4, 1.5, 0.2],
 [4.4, 2.9, 1.4, 0.2],
 [4.9, 3.1, 1.5, 0.1]]

样本类别分布:

print dict(zip(*np.unique(y,return_counts=True)))

Out:
{0: 50, 1: 50, 2: 50}

描述性统计:

print stats.describe(X)

Out:
DescribeResult(
nobs=150L, 
minmax=(array([4.3, 2. , 1. , 0.1]), array([7.9, 4.4, 6.9, 2.5])), 
mean=array([5.84333333, 3.054     , 3.75866667, 1.19866667]), 
variance=array([0.68569351, 0.18800403, 3.11317942, 0.58241432]), 
skewness=array([ 0.31175306,  0.33070281, -0.27171195, -0.10394367]), 
kurtosis=array([-0.57356795,  0.2414433 , -1.3953593 , -1.33524564]))

PCA降维

第一步,计算协方差矩阵,注意计算前需要对数据进行转置:

cov = np.cov(X.T)
print np.round(cov, decimals=2) # 打印保留2位小数的结果

Out:
[[ 0.69, -0.04,  1.27,  0.52],
 [-0.04,  0.19, -0.32, -0.12],
 [ 1.27, -0.32,  3.11,  1.3 ],
 [ 0.52, -0.12,  1.3 ,  0.58]]

可以看到协方差矩阵是一个对称矩阵(看到对称矩阵,立刻就可以想到可对角化了吧,哈哈),对角线表示方差,其它元素表示两变量间的协方差。

(PS:当数据是中心化(样本值减去均值)了的,协方差矩阵还可以通过 1n1XTX 1 n − 1 X T X 得到,也就是它的转置乘以自身再除以样本数量。)

第二步,特征值分解(也叫对称矩阵对角化):

eig_val,eig_vec = np.linalg.eig(cov)

Out:
array([4.22484077, 0.24224357, 0.07852391, 0.02368303])

array([[ 0.36158968, -0.65653988, -0.58099728,  0.31725455],
       [-0.08226889, -0.72971237,  0.59641809, -0.32409435],
       [ 0.85657211,  0.1757674 ,  0.07252408, -0.47971899],
       [ 0.35884393,  0.07470647,  0.54906091,  0.75112056]])

假设我们把特征维度从4维降为2维,那我们就选择特征值绝对值最大的两个对应的特征向量:

indices = np.argsort(np.abs(eig_val))[::-1][:2]

Out:
array([0, 1], dtype=int64)

也就是前两列特征向量:

transform_matrix = eig_vec[:, indices]

Out:
[[ 0.36158968, -0.65653988],
 [-0.08226889, -0.72971237],
 [ 0.85657211,  0.1757674 ],
 [ 0.35884393,  0.07470647]]

第三步,将原始数据降维,得到新的数据集:

new_X = np.dot(X, transform_matrix)

Out:
[[ 2.82713597, -5.64133105],
 [ 2.79595248, -5.14516688],
 [ 2.62152356, -5.17737812],
 [ 2.7649059 , -5.00359942],
 [ 2.78275012, -5.64864829],
 [ 3.23144574, -6.06250644],
 [ 2.69045242, -5.23261922],
 [ 2.8848611 , -5.48512908],
 [ 2.62338453, -4.7439257 ],
 [ 2.83749841, -5.20803203]
 ...

这里需要特别注意的是,这里的特征已经不再对应原始数据的特征{花萼长度、花萼宽度、花瓣长度、花瓣宽度},经过降维后的数据是在新的坐标系下描述的数据。

总结

主成分分析降维方法计算过程分为三步:

  1. 计算协方差矩阵
  2. 对协方差矩阵进行特征分解(对角化)
  3. 选择特征值绝对值最大的特征值对应的特征向量作为转换矩阵,将原始数据降维。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

手撕机

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值