非监督学习算法——PCA算法

PCA算法主要用于数据降维,如用于数据压缩、可视化和异常值检测。它寻找方差最大的方向作为主成分,使得在保留数据信息的同时降低维度。PCA通过将数据映射到新的坐标系来实现这一目标,可以使用sklearn库或者手动实现。
摘要由CSDN通过智能技术生成

PCA算法

作用

pca算法主要用于数据的降维,可以发现更便于人来理解的特征。还可以可视化,去噪

数据降维的作用:

  1. 数据压缩
  2. 做数据可视化或特征提取(比如降到2维,看坐标图可视化)
  3. 异常值检测和聚类

优缺点

精度上可能稍微会有所丢失,但是速度上会提高

工作原理

工作原理:PCA找主成分的时候其实在寻找K个尽可能的把样本区分开方向,即方差尽可能大的方向作为主成分,这样就可以做到在保留尽可能多的数据信息的情况下把数据的维度降到了K维(原来肯定是比K维大)
所以,主成分的标准两个条件,一是互不相关二是用来描述数据的时候,方差尽可能大
在这里插入图片描述

数学公式

计算公式:

方差函数:
样本均值归为0:
Var ⁡ ( x ) = 1 m ∑ i = 1 m x i 2 \operatorname{Var}(x)=\frac{1}{m} \sum_{i=1}^{m} x_{i}^{2} Var(x)=m1i=1mxi2
二维:
Var ⁡ ( X project ) = 1 m ∑ i = 1 m ( X ( i ) ⋅ w ) 2 \operatorname{Var}\left(X_{\text {project}}\right)=\frac{1}{m} \sum_{i=1}^{m}\left(X^{(i)} \cdot w\right)^{2} Var(Xproject)=m1i=1m(X(i)w)2
N维:
Var ⁡ ( X project ) = 1 m ∑ i = 1 m ( X 1 ( i ) w 1 + X 2 ( i ) w 2 + … + X n ( i ) w n ) 2 \operatorname{Var}\left(X_{\text {project}}\right)=\frac{1}{m} \sum_{i=1}^{m}\left(X_{1}^{(i)} w_{1}+X_{2}^{(i)} w_{2}+\ldots+X_{n}^{(i)} w_{n}\right)^{2} Var(Xproject)=m1i=1m(X1(i)

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值