目前理解的主成分分析作用:用于降维,方便后续的处理.
这次在尝试学习相关原理了,不过学的还是不是很通顺,还是很难理解线性代数的一些处理方法的直观意义.
(本篇博客原理部分是从其他博主博客糅合进来的)
- 第一步就是每个样本都减去期望值(均值)的意思,这样每个样本的均值就都为0了.
- 协方差矩阵涨这样,对角线是方差,其他都是协方差.我们比较熟悉的协方差计算公式是这样的.
由于第一步处理的时候,E(Xi)都为0了,所以cov(X,Y)=E(XY).然后就变成了这个公式.
方差变成了这个公式
3.第三步理解的不是很透彻,总的来说就是由于上面的矩阵是实对称矩阵,肯定能求出n个不线性相关的特征向量,以及对应得特征值,而特征值的大小就可以用于选取特征向量去组成特征矩阵.比如说有n个特征值.但是前k个(特征值由小到大排列)就占了99%,那就只选取k个特征向量组成特征矩阵就好.
这样,特征数就从n降到了k.实现了降维.
下面是代码实现部分