一、基础知识
假设两个样本X、Y,它们的均值分别为 X ‾ \overline{X} X、 Y ‾ \overline{Y} Y,样本X和样本Y的协方差为:
C o v ( X , Y ) = ∑ i = 1 n ( X i − X ‾ ) ( Y i − Y ‾ ) n − 1 Cov(X,Y) = \frac{\sum_{i=1}^{n}(X_i-\overline{X})(Y_i-\overline{Y})}{n-1} Cov(X,Y)=n−1∑i=1n(Xi−X)(Yi−Y)
协方差为正时说明X和Y是正相关,协方差为负时X和Y是负相关1,协方差为0时X和Y相互独立。
若 X W = λ W XW=\lambda W XW=λW,则称 λ \lambda λ是X的特征值,W是对应的特征向量。 X W XW XW的结果等同于 W W W按系数 λ \lambda λ的缩放。当X是n阶可逆对称矩阵时,存在正交 Q Q Q ( Q − 1 = Q T Q^{-1}=Q^T Q−1=QT),使得:
Q T X Q = ( λ 1 0 ⋯ 0 0 λ 2 ⋯ 0 ⋮ ⋮ ⋱ ⋮ 0 0 ⋯ λ n ) Q^T X Q = \begin {pmatrix} \lambda_1 & 0 & \cdots &0 \\ 0 & \lambda_2 & \cdots & 0 \\ \vdots & \vdots & \ddots & \vdots \\ 0 & 0 & \cdots & \lambda_n \end {pmatrix} QTXQ=⎝⎜⎜⎜⎛λ10⋮00λ2⋮0⋯⋯⋱⋯00⋮λn⎠⎟⎟⎟⎞
对矩阵X进行奇异值分解,就可以得到特征值和特征向量(Q的列向量)。
二、PCA的理解
数据发生降维时会产生信息损失,同时希望损失尽可能小&#x