降维
有几个不同的的原因使你可能想要做降维。一是数据压缩。数据压缩不仅允许我们压缩数据,因而使用较少的计算机内存或磁盘空间,但它也让我们加快我们的学习算法。
动机一:数据压缩
但首先,让我们谈论降维是什么。我们举一个例子来说明:我们收集到的数据集,有许多特征,我绘制两个在这里。
假设我们未知两个的特征: x 1 x_1 x1:长度,用厘米表示; x 2 x_2 x2:是用英寸表示同一物体的长度。
所以,这给了我们高度冗余表示,也许不是两个分开的特征 x 1 , x 2 x_1\;,\;x_2 x1,x2,这两个基本的长度度量。也许我们想做的是要减少数据到一维,只有一个数测量这个长度。
假设我们要采用两种不同的仪器来测量一些东西的尺寸,其中一个仪器测量的结果的单位是英寸,另一个仪器测量的结果是厘米,我们希望将测量的结果作为我们机器学习的特征。现在的问题是,两种仪器对于同一个东西测量的结果不完全相等(由于误差、精度等因素),而将两者都作为特征又有些重复,因此,我们希望将这个二维的数据降到一维。
现在我把不同的样本用不同的颜色标出来,如下所示:
这时,通过降维,意思是,我们想找出一条线,看起来大多数样本所在的线,所有的数据都投影到了刚刚所画的线上。
通过这种做法,我们能做到测量出每个样本在线上的位置,现在我们要做的就是建立新的特征 z 1 z_1 z1,我们只需要一个数就能确定 z 1 z_1 z1所在的位置。也就是说, z 1 z_1 z1是一个新的特征,它能够指定上面直线上每一个点的位置。
将数据从三维降至二维:
我们要将一个三维的特征向量降至一个二维的特征向量。过程是与上面类似的,我们将三维向量投射到一个二维的平面上,强迫使得所有的数据都在同一个平面上,降至二维的特征向量。
动机二:数据可视化
在许多及其学习问题中,如果我们能将数据可视化,我们便能寻找到一个更好的解决方案,降维可以帮助我们。
假使我们有有关于许多不同国家的数据,每一个特征向量都有50个特征(如GDP,人均GDP,平均寿命等)。
如果要将这个50维的数据可视化是不可能的。使用降维的方法将其降至2维,我们便可以将其可视化了。
这样做的问题在于,降维的算法只负责减少维数,新产生的特征的意义就必须由我们自己去发现了。
主成分分析问题一
主成分分析(PCA)是最常见的降维算法。
我们先通过一个例子来入手:
假设我想对上面的数据进行降维,从二维降到一维,也就是说我想找到一条能够将数据投影到上面的直线:
在PCA中,我们要做的是找到一个方向向量(Vector
direction),当我们把所有的数据都投射到该向量上时,我们希望投射平均均方误差能尽可能地小。方向向量是一个经过原点的向量,而投射误差是从特征向量向该方向向量作垂线的长度。
正式地说,PCA做的就是找到一个低维平面,然后将数据投影到上面。
下面给出主成分分析问题的描述:
问题是要将 n n n维数据降至k维,目标是找到向量 μ ( 1 ) , μ ( 2 ) , ⋯ , μ ( k ) \mu^{(1)},\mu^{(2)},\cdots,\mu^{(k)} μ(1),μ(2),⋯,μ(k)使得总的投射误差最小。
看到我们上面的图像,我们发现和线性回归的图像很相似。但是,主成分分析和线性回归是两种不同的算法。
主成分分析最小化的是投射误差(Projected
Error),而线性回归尝试的是最小化预测误差。线性回归的目的是预测结果,而主成分分析不作任何预测。
上图中,左边的是线性回归的误差(垂直于横轴投影),右边则是主要成分分析的误差(垂直于红线投影)。
主成分分析问题二
PCA将n个特征降维到k个,可以用来进行数据压缩,如果100维的向量最后可以用10维来表示,那么压缩率为90%。
但PCA要保证降维后,还要保证数据的特性损失最小。
PCA技术的一大好处是对数据进行降维的处理。
我们可以对新求出的“主元”向量的重要性进行排序,根据需要取前面最重要的部分,将后面的维数省去,可以达到降维从而简化模型或是对数据进行压缩的效果。同时最大程度的保持了原有数据的信息。
PCA技术的一个很大的优点是,它是完全无参数限制的。
在PCA的计算过程中完全不需要人为的设定参数或是根据任何经验模型对计算进行干预,最后的结果只与数据相关,与用户是独立的。
但是,这一点同时也可以看作是缺点。如果用户对观测对象有一定的先验知识,掌握了数据的一些特征,却无法通过参数化等方法对处理过程进行干预,可能会得不到预期的效果,效率也不高。
主成分分析算法
PCA减少 n n n维到 k k k维:
第一步是均值归一化。我们需要计算出所有特征的均值,然后令 x j = x j − μ j x_j=x_j-\mu_j xj=xj−μj。如果特征是在不同的数量级上,我们还需要将其除以标准差 σ 2 \sigma^2 σ2。
第二步是计算协方差矩阵(covariance matrix)
Σ
\Sigma
Σ:
Σ
=
1
m
∑
i
=
1
n
(
x
(
i
)
)
(
x
(
i
)
)
T
\Sigma=\frac{1}{m}\sum_{i=1}^{n}(x^{(i)})(x^{(i)})^T
Σ=m1i=1∑n(x(i))(x(i))T
第三步是计算协方差矩阵 Σ \Sigma Σ的特征向量(eigenvectors):
对于一个 n × n n\times n n×n维度的矩阵,上式中的 U U U是一个具有与数据之间最小投射误差的方向向量构成的矩阵。如果我们希望将数据从 n n n维降至 k k k维,我们只需要从 U U U中选取前 k k k个向量,获得一个 n × k n\times k n×k维度的矩阵,我们用 U r e d u c e U_{reduce} Ureduce表示,然后通过如下计算获得要求的新特征向量 z ( i ) : z ( i ) = U r e d u c e T ∗ x ( i ) z^{(i)}:z^{(i)}=U_{reduce}^T*x^{(i)} z(i):z(i)=UreduceT∗x(i)。
选择主成分的数量
主成分分析是减少投射的平均均方误差。
训练集的方差为: 1 m ∑ i = 1 m ∣ ∣ x ( i ) ∣ ∣ 2 \frac{1}{m}\sum_{i=1}^{m}||x^{(i)}||^2 m1i=1∑m∣∣x(i)∣∣2
我们希望在平均均方误差与训练集方差的比例尽可能小的情况下选择尽可能小的 k k k值。
如果我们希望这个比例小于1%,就意味着原本数据的偏差有99%都保留下来了,如果我们选择保留95%的偏差,便能非常显著地降低模型中特征的维度了。
我们可以先令 k = 1 k=1 k=1,然后进行主成分分析,获得 U r e d u c e U_{reduce} Ureduce和 z z z,然后计算比例是否小于1%。如果不是的话再令 k = 2 k=2 k=2,如此类推,直到找到可以使得比例小于1%的最小 k k k值(原因是各个特征之间通常情况存在某种相关性)。
我们的 S S S是一个 n × n n\times n n×n的矩阵: S = [ s 11 s 22 s 33 ⋯ s 44 ] S= \begin{bmatrix} s_{11} & & & & \\ & s_{22} & & &\\ & & s_{33}& &\\ & & & \cdots &\\ & & & & &s_{44} \end{bmatrix} S=⎣ ⎡s11s22s33⋯s44⎦ ⎤
只有对角线上有值,而其它单元都是0,我们可以使用这个矩阵来计算平均均方误差与训练集方差的比例:
1
m
∑
i
=
1
m
∣
∣
x
(
i
)
−
x
a
p
p
r
o
x
(
i
)
∣
∣
2
1
m
∑
i
=
1
m
∣
∣
x
(
i
)
∣
∣
2
=
1
−
∑
i
=
1
k
S
i
i
∑
i
=
1
m
S
i
i
≤
1
%
\frac{\frac{1}{m}\sum_{i=1}^{m}||x^{(i)}-x_{approx}^{(i)}||^2}{\frac{1}{m}\sum_{i=1}^{m}||x^{(i)}||^2}=1-\frac{\sum_{i=1}^{k}S_{ii}}{\sum_{i=1}^{m}S_{ii}}\leq 1\%
m1∑i=1m∣∣x(i)∣∣2m1∑i=1m∣∣x(i)−xapprox(i)∣∣2=1−∑i=1mSii∑i=1kSii≤1%
也就是: ∑ i = 1 k S i i ∑ i = 1 m S i i ≥ 0.99 \frac{\sum_{i=1}^{k}S_{ii}}{\sum_{i=1}^{m}S_{ii}}\geq 0.99 ∑i=1mSii∑i=1kSii≥0.99
在压缩过数据后,我们可以采用如下方法来近似地获得原有的特征:
x
a
p
p
r
o
x
(
i
)
=
U
r
e
d
u
c
e
z
(
i
)
x_{approx}^{(i)}=U_{reduce}z^{(i)}
xapprox(i)=Ureducez(i)
重建的压缩表示
在以前的学习中,我们谈论PCA作为压缩算法。在那里你可能需要把1000维的数据压缩100维特征,或具有三维数据压缩到一二维表示。
所以,如果这是一个压缩算法,应该能回到这个压缩表示,回到你原有的高维数据的一种近似。
所以,给定的 z ( i ) z^{(i)} z(i),这可能是100维,怎么回到你原来的表示 x ( i ) x^{(i)} x(i),这可能是1000维的数组?
PCA算法,我们可能有一个这样的样本。如图中样本 x ( 1 ) , x ( 2 ) x^{(1)}\;,\;x^{(2)} x(1),x(2)。我们做的是,我们把这些样本投射到图中这个一维平面。然后现在我们只需要使用一个实数,比如 z ( 1 ) z^{(1)} z(1),指定这些点的位置后他们被投射到这一个三维曲面。给定一个点 z ( 1 ) z^{(1)} z(1),我们怎么能回到这个原始的二维空间呢?
x x x为2维, z z z为1维, z = U r e d u c e T x z=U_{reduce}^Tx z=UreduceTx,相反的方程为: x a p p r o x = U r e d u c e ⋅ z x a p p r o x ≈ x \begin{split} &x_{approx}=U_{reduce}\cdot z\\ &x_{approx}\thickapprox x \end{split} xapprox=Ureduce⋅zxapprox≈x
如图:
如你所知,这是一个漂亮的与原始数据相当相似。
所以,这就是你从低维表示 z z z回到未压缩的表示。我们得到的数据的一个之间你的原始数据 x x x,我们也把这个过程称为重建原始数据。
当我们认为试图重建从压缩表示 x x x的初始值。所以,给定未标记的数据集,您现在知道如何应用PCA,你的带高维特征 x x x和映射到这的低维表示 z z z。
主成分分析法的应用建议
假使我们正在针对一张
100×100像素的图片进行某个计算机视觉的机器学习,即总共有10000个特征。
(1)第一步是运用主要成分分析将数据压缩至1000个特征
(2)然后对训练集运行学习算法
(3)在预测时,采用之前学习而来的 U r e d u c e U_{reduce} Ureduce将输入的特征 x x x转换成特征向量 z z z,然后再进行预测。
注:如果我们有交叉验证集合测试集,也采用对训练集学习而来的 U r e d u c e U_{reduce} Ureduce。
我们总结一下错误的原因:
一个常见错误使用主要成分分析的情况是,将其用于减少过拟合(减少了特征的数量)。这样做非常不好,不如尝试正则化处理。原因在于主要成分分析只是近似地丢弃掉一些特征,它并不考虑任何与结果变量有关的信息,因此可能会丢失非常重要的特征。然而当我们进行正则化处理时,会考虑到结果变量,不会丢掉重要的数据。
另一个常见的错误是,默认地将主要成分分析作为学习过程中的一部分,这虽然很多时候有效果,最好还是从所有原始特征开始,只在有必要的时候(算法运行太慢或者占用太多内存)才考虑采用主要成分分析。
测时,采用之前学习而来的
U
r
e
d
u
c
e
U_{reduce}
Ureduce将输入的特征
x
x
x转换成特征向量
z
z
z,然后再进行预测。
注:如果我们有交叉验证集合测试集,也采用对训练集学习而来的 U r e d u c e U_{reduce} Ureduce。
我们总结一下错误的原因:
一个常见错误使用主要成分分析的情况是,将其用于减少过拟合(减少了特征的数量)。这样做非常不好,不如尝试正则化处理。原因在于主要成分分析只是近似地丢弃掉一些特征,它并不考虑任何与结果变量有关的信息,因此可能会丢失非常重要的特征。然而当我们进行正则化处理时,会考虑到结果变量,不会丢掉重要的数据。
另一个常见的错误是,默认地将主要成分分析作为学习过程中的一部分,这虽然很多时候有效果,最好还是从所有原始特征开始,只在有必要的时候(算法运行太慢或者占用太多内存)才考虑采用主要成分分析。