PCA原理总结

本文介绍了PCA(主成分分析)的基本原理,从降维的动机出发,解释了如何通过基变换实现数据的降维。PCA的目标是找到一组正交基,使得投影后的数据方差最大且各维度间不相关。文章详细讨论了协方差矩阵在PCA中的作用,以及如何通过最大化方差和保持基向量正交来选择最优基。PCA适用于处理线性相关性的高维数据,但对高阶相关性有限制。文章还提到了kernel PCA作为解决非线性相关问题的方法。PCA的一大优点是结果稳定,但灵活性不足,无法进行个性化优化。
摘要由CSDN通过智能技术生成

本来打算查查资料总结一下PCA的原理,但是发现关于PCA介绍的神文一篇,颇有深入浅出的感觉,介绍的实在详细,我还是不献丑了。但是,单纯转载过来实在没什么技术性,而且也有点辜负当初那位大神的费心总结,所以认真拜读之后,整理原文介绍PCA的思路如下,希望能够锦上添花,方便读者理解。  原文地址:点击打开链接

1. 先说明数据的维度可能是彼此相关的,当维度很高时,是否可以降维,并且使得信息的损失最小。在这里作者举例男女性别以及销售情况,来说明降维的动机和可行性。

2. 解释 向量內积的物理含义,即,当向量B的模为1时,向量A和向量B的內积等于向量A在B所在直线上的投影的矢量距离。  注:矢量距离可为负,此时两向量夹角为钝角;标量距离只能为正。

3. 引入的定义,以及当基向量变化时,新的坐标就是原向量在新的基向量上的投影,即矢量距离,也就是原向量和单位基向量的內积。 注:基的确定,是一切向量坐标定位的前提。另外点明,只要不是在一条直线上的两向量,都可以成为一组基向量,但是一般希望是正交的。

4.推广单个向量在二维空间基变换时的计算方法,为多个向量在更高维度同时发生基变换的矩阵计算模式。而这个矩阵相乘的模式就可以用了做降维的变换,也表明该矩阵相乘(降维变换)的一种物理解

  • 1
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值