机器学习(七):主成分分析PCA降维_Python

六、PCA主成分分析(降维)

1、用处

  • 数据压缩(Data Compression),使程序运行更快
  • 可视化数据,例如3D-->2D
  • ……

2、2D–>1D,nD–>kD

  • 如下图所示,所有数据点可以投影到一条直线,是投影距离的平方和(投影误差)最小
    这里写图片描述
  • 注意数据需要归一化处理
  • 思路是找1向量u,所有数据投影到上面使投影距离最小
  • 那么nD-->kD就是找k个向量$${u^{(1)}},{u^{(2)}} \ldots {u^{(k)}}$$,所有数据投影到上面使投影误差最小
    • eg:3D–>2D,2个向量$${u^{(1)}},{u^{(2)}}$$就代表一个平面了,所有点投影到这个平面的投影误差最小即可

3、主成分分析PCA与线性回归的区别

  • 线性回归是找xy的关系,然后用于预测y
  • PCA是找一个投影面,最小化data到这个投影面的投影误差

4、PCA降维过程

  • 数据预处理(均值归一化)

    • 公式:$${\rm{x}}_j^{(i)} = {​{​{\rm{x}}_j^{(i)} - {u_j}} \over {​{s_j}}}$$
    • 就是减去对应feature的均值,然后除以对应特征的标准差(也可以是最大值-最小值)
    • 实现代码:
       # 归一化数据
      def featureNormalize(X):
          '''(每一个数据-当前列的均值)/当前列的标准差'''
          n = X.shape[1]
          mu = np.zeros((1,n));
          sigma = np.zeros((1,n)
评论 4
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值