python机器学习-无监督学习-降维PCA学习笔记

学习主成分分析前,先回顾一些数学知识

• 方差:是各个样本和样本均值的差的平方和的均值,用来度量一组
数据的分散程度。


• 协方差:用于度量两个变量之间的线性相关性程度,若两个变量的
协方差为0,则可认为二者线性无关。协方差矩阵则是由变量的协方差值
构成的矩阵(对称阵)。


• 特征向量和特征值:矩阵的特征向量是描述数据集结构的非零向量,并满足
如下公式:

主成分分析原理

原理:矩阵的主成分就是其协方差矩阵对应的特征向量,按照对应
的特征值大小进行排序,最大的特征值就是第一主成分,其次是第二主
成分,以此类推。

主成分分析(Principal Component Analysis,PCA)是最常用的
一种降维方法,通常用于高维数据集的探索与可视化,还可以用作数
据压缩和预处理等。
PCA可以把具有相关性的高维变量合成为线性无关的低维变量,称为
主成分。主成分能够尽可能保留原始数据的信息。

主成分分析-算法过程

实例-鸢尾花数据集主成分分析

import matplotlib.pyplot as plt
from sklearn.decomposition import PCA
from sklearn.datasets import load_iris

data = load_iris()
y = data.target
x = data.data
pca =PCA(n_components=2)      #n_components指主成分的个数,即降维后数据的维度
reduced_x = pca.fit_transform(x)   #对数据进行降维
#print(reduced_x)

red_x,red_y = [],[]
blue_x,blue_y = [],[]
green_x,green_y = [],[]

for i in range(len(reduced_x)):
    if y[i]==0:
        red_x.append(reduced_x[i][0])
        red_y.append(reduced_x[i][1])
    elif y[i]==1:
        blue_x.append(reduced_x[i][0])
        blue_y.append(reduced_x[i][1])
    else:
        green_x.append(reduced_x[i][0])
        green_y.append(reduced_x[i][1])
#可视化
plt.scatter(red_x,red_y,c='r',marker='o')
plt.scatter(blue_x,blue_y,c='b',marker='*')
plt.scatter(green_x,green_y,c='g',marker='^')
plt.show()

运行结果

从运行结果可以看出降维后的数据仍能够清晰地分成三类。这样不仅能削减数据的维度,降低分类任务的工作量,还能保证分类的质量。

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 1
    评论
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值