机器学习日记(11)
降维(Dimensionality Reduction)
动机一:数据压缩(Data Compression)
第二种类型的无监督学习问题称为降维。有几个不同的的原因使你可能想要做降维。一是数据压缩,数据压缩不仅允许我们压缩数据,并因此使用较少的计算机内存或磁盘空间,而且它也让我们加快我们的学习算法。但首先,让我们谈论降维是什么。以下为两个例子:
假设我们未知两个的特征:𝑥1:长度:用厘米表示;𝑥2:是用英寸表示同一物体的长度。所以,这给了我们高度冗余表示,也许不是两个分开的特征𝑥1和𝑥2,这两个基本的长度度量实质是一样的,我们想要做的是减少数据到一维,只有一个数测量这个长度;并且,我们希望将测量的结果作为我们机器学习的特征。现在的问题的是,两种仪器对同一个东西测量的结果不完全相等(由于误差、精度等),而将两者都作为特征有些重复,因而,我们希望将这个二维的数据降至一维。
将数据从三维降至二维: 这个例子中我们要将一个三维的特征向量降至一个二维的特征向量。过程是与上面类似的,我们将三维向量投射到一个二维的平面上,强迫使得所有的数据都在同一个平面上,降至二维的特征向量。
这样的处理过程可以被用于把任何维度的数据降到任何想要的维度,例如将 1000 维的
特征降至 100 维。
动机二:数据可视化(Visualization)
在许多及其学习问题中,如果我们能将数据可视化,我们便能寻找到一个更好的解决方
案,降维可以帮助我们。
假使我们有有关于许多不同国家的数据,每一个特征向量都有 50 个特征(如GDP,人均 GDP,平均寿命等)。如果要将这个 50 维的数据可视化是不可能的。使