Kernelized Principal Component Analysis详解
第三十八次写博客,本人数学基础不是太好,如果有幸能得到读者指正,感激不尽,希望能借此机会向大家学习。《主成分分析(PCA)详解(附带详细公式推导)》一文中曾对一种重要的降维手段——主成分分析(PCA)进行了讲解,这篇文章则主要对PCA的一种变体——核主成分分析(KPCA)进行讲解。
主成分分析的问题分析
主成分分析(PCA)中采用的降维方法是线性降维,然而在很多现实任务中,可能需要非线性映射才能找到恰当的低维嵌入(Low-dimension Embedding),如下图所示,图1(a)中的3000个样本点是从图1(b)所示的二维矩形区域采样后并以S形曲面嵌入到三维空间中的,为了对这个二维矩形区域和经过降维后得到的低维嵌入进行对比,在这里将此区域称为“本真”(Intrinsic)二维空间,可以看出经过PCA降维后得到的低维嵌入丢失了原始数据的低维结构。主成分分析(PCA)中采用的降维方法是线性降维,然而在很多现实任务中,可能需要非线性映射才能找到恰当的低维嵌入(Low-dimension Embedding),如下图所示,图1(a)中的3000个样本点是从图1(b)所示的二维矩形区域采样后并以S形曲面嵌入到三维空间中的,为了对这个二维矩形区域和经过降维后得到的低维嵌入进行对比,在这里将此区域称为“本真”(Intrinsic)二维空间,可以看出经过PCA降维后得到的低维嵌入丢失了原始数据的低维结构。
基于上述问题,我们考虑向线性降维中引入“核化”(kernelized),下面对核化版本的主成分分析,即核主成分分析(Kernelized Principal Component Analysis,简称KPCA)进行分析。
核主成分分析的推导
假设,原始样本空间 X ∈ R d × m \mathbf{X}\in\mathbb{R}^{d\times{m}} X∈Rd×m,核化后的样本空间 Z ∈ R d ′ × m \mathbf{Z}\in\mathbb{R}^{d'\times{m}} Z∈Rd′×m,降维后得到的样本空间 Y ∈ R d ′ ′ × m \mathbf{Y}\in\mathbb{R}^{d''\times{m}} Y∈Rd′′×m,那么由PCA我们可知存在如下等式,
(1) ( ∑ i = 1 m z i z i T ) w j = λ j w j \left(\sum_{i=1}^{m}{\mathbf{z}_{i}\mathbf{z}_{i}^{T}}\right)\mathbf{w}_{j}=\lambda_{j}\mathbf{w}_{j} \tag{1} (i=1∑mziziT)wj=λjwj(1)
其中, z i \mathbf{z}_i zi是原样本空间中第 i i i个样本点 x i \mathbf{x}_i xi在核化后的高维空间中的对应点, w j \mathbf{w}_j wj是要求得的投影矩阵 W ∈ R d ′ × d ′ ′ \mathbf{W}\in{\mathbb{R}^{d'\times{d''}}} W∈Rd′×d′′的第 j j j个向量, λ j \lambda_j λj