参考文献:
http://www.cnblogs.com/jerrylead/archive/2011/04/18/2020209.html
https://my.oschina.net/gujianhan/blog/225241
http://blog.csdn.net/jinshengtao/article/details/18599165
http://blog.csdn.net/u012162613/article/details/42177327
http://deeplearning.stanford.edu/wiki/index.php/%E4%B8%BB%E6%88%90%E5%88%86%E5%88%86%E6%9E%90
主成分分析(Principal Component Analysis)是一种对特征进行降维的方法。在机器学习以及影像分类中广泛使用,能够极大提高无监督特征学习的速度。由于观测指标间存在相关性,将导致信息的重叠与低效。为此,我们更倾向于用更少量的、尽可能多的能反映源特征的新特征来代替原始观测指标。这就是主成分分析,其可以看作是高维空间通过旋转坐标系,找到最佳投影的过程。换言之,即将n维特征映射到k维上(k<n),k维特征成为主成分,其包含了n维特征的绝大部分性质,去除了重复性质。
从实际算法实习上来看,PCA主要分为三个部分。(1)生成协方差矩阵;(2)计算特征值和特征向量,并选取主成分;(3)将原始数据投影到降维的子空间中。本文主要通过从对图像进行PCA处理的思路展开。
(1) 第一步生成协方差矩阵首先,什么是协方差矩阵?首先说方差,当我