PCA学习

特征提取学习

通过正交变换将一组可能存在相关性的变量转换为一组线性不相关的变量,转换后的这组变量叫主成分。


PCA思想

  • 将n维特征映射到k维上(k<n),这k维是全新的正交特征。 这k维特征称为主成分,是重新构造出来的k维特征,而不是简单地从n维特征中去除其余n-k维特征。

  • 协方差在这里插入图片描述
    协方差为正说明X和Y为正相关关系,为负代表X和Y为负相关关系,为0时代表X和Y独立。协方差绝对值越大,两者对彼此的影响越大,反之越小。


PCA过程

  • 特征中心化: 即每一维的数据都减去该维的均值,每一维代表一个特征。
    代表每一维的均值。
  • 求特征协方差矩阵,如果数据为三维(x,y,z),(有三个特征值)

  • 计算协方差矩阵的特征值 (特征向量均归一化为单位向量)

  • 将特征值按照从大到小的顺序排列,选择其中最大的k个,将其对应的k个特征向量分别作为列向量组成特征向量矩阵。其中k的选择标准一般情况下为: 在这里插入图片描述

  • 将样本点投影到选取的特征向量上。假设样例为m,特征数为n。

这样就将原始样例的n维特征变为了k维,这k维就是原始特征在k维上的投影。


对DryBeans进行预分析

X_digits = x_train
y_digits = y_train

estimator = PCA(n_components=3)
X_pca = estimator.fit_transform(X_digits)

    for i in range(len(colors)):
        px = X_pca[:, 0][y_digits.as_matrix() == i
  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值