无监督学习-邻域嵌入方法|深度学习(李宏毅)(十八)

一、概述

流形学习(Manifold Learning)是指通过从高维采样数据中恢复低维流形结构,即找到高维空间中的低维流形,并求出相应的嵌入映射,以实现降维或者数据可视化。拿地球举例来说就是地球的表面可以认为是一个二维平面被塞到了三维空间中,那么欧氏距离(Euclidean Distance)就只能在短距离内成立,在较远的距离就不再成立:

再举一个例子,在下图中可以认为一个二维平面被扭曲放入一个三维空间中,在很小的距离内欧式举例是成立的:

而如果距离太远的话则可能欧氏距离就不成立,如下图所示,黑点到蓝点的欧氏距离比到红点的欧氏距离更小,但是从数据分布上来看黑点和红点更加相似一些,这时欧式距离就没有意义了:

对于上面的例子,流形学习要做的就是学习数据在低维空间的表示形式,通俗来说,就是将上图中的数据“展开”:

这样的数据显然更容易用来进行聚类或者其他的监督学习方法。接下来的部分介绍几种流形学习的方法。

二、Locally Linear Embedding(LLE)

Locally Linear Embedding(LLE)是一种非线性降维算法,可以使降维后的数据保持比较好的原有的流形结构。

如下图,我们在高维空间中有许多样本,表示之间的关系,LLE中我们认为一个样本可以由它的邻近的点做weighted sum即来得到:

使用梯度下降法来进行求解所有的,在进行求解是我们希望的是能与越接近越好,因此损失函数如下:

接下来要做的是利用来求解降维后的结果,假设与其邻接的样本之间也满足weighted sum的关系:

同样使用梯度下降法来求解,需要注意的是这里要固定,把看做未知来求解。使用的损失函数如下:

需要注意一点就是使用LLE这种方式进行降维不像PCA或者自编码器一类方法有一个明确的function,降维的结果完全是根据凭空生成的点。

在使用LLE进行降维时,选择邻域内的几个点是一个可以调整的超参数,选用过少或过多的点效果都不会太好,选择过多邻居的局限性在于这样会考虑进一些距离较远的点,而欧氏距离在远距离的效果不太好。下图展示了不同数量的邻近点的效果:

三、Laplacian Eigenmaps

  1. 简介

拉普拉斯特征映射(Laplacian Eigenmaps)是一种基于图的降维算法,依赖于平滑性假设(Smoothness Assumption),其希望降维后的点(图中有边相连的点)在降维后的空间中能够相互接近,从而保持其原有的数据结构。

  1. 图的构建

具体地,假定在高维空间中有下图的数据点,则两个红色数据点之间的距离使用欧氏距离来度量的话是没有意义的,数据点之间在流形中的距离才可以表明其相似的程度。

使用拉普拉斯特征映射的方法首先需要构建一张图,构建的方法就是将相似度高的点之间连一条边,可以设置一个阈值,每个点与其相似度达到阈值的点之间连接一条边,边的权重就是相似度,也可以将每个点与固定个最相似的点连接起来。相似度可以采用径向基函数或者余弦相似度等等。

按照上述方法我们可以得到数据的邻接矩阵和一张图。邻接矩阵是数据的总数),邻接矩阵的元素就是数据点的相似度,即:

得到的图如下:

两个数据点在流形中的距离可以用图中的距离来近似:

  1. 类比半监督学习

参考以下链接中平滑性假设基于图的方法这一部分:半监督学习|深度学习(李宏毅)(九)

在半监督学习平滑性假设基于图的方法中,通过给损失函数添加一个正则化项可以利用无标签数据进行半监督学习,用来评估标签的相关性,这个正则化项为:

上式中维的向量,分别是有标签和无标签数据的数量,

另外,叫做图的拉普拉斯矩阵(Graph Laplacian)。就是上述邻接矩阵,是图的度矩阵,这是一个对角矩阵():

这个正则项表明如果两个数据点相连,则有值,那么趋近于相同;如果两个数据点不相连,则,那么是否相同就无所谓。

加上正则化项以后损失函数变为:

  1. Laplacian Eigenmaps

Laplacian Eigenmaps的方法类似于上述平滑性假设基于图的半监督学习方法,我们期望将高维数据降维成维空间的数据,首先要按上述方法构建一张图并且得到邻接矩阵,因此设计损失函数如下:

降维后的数据记作维的列向量,现做推导如下:

这里仅仅对进行最小化是不可行的,必须进行一些限制。因为如果我们设置,则就可以始终为最小值。如果降维的结果的维度为,则我们需要限制,这是为了防止已经被塞进高维空间的流形再被塞进更低维的空间中。

对降维后的数据再进行聚类就是谱聚类(Spectral Clustering)算法。

这里的拉普拉斯特征图的降维方法可以参考以下更详细的讲解:谱聚类|机器学习推导系列(二十)。

四、T-distributed Stochastic Neighbor Embedding(-SNE)

  1. 上述方法的问题

在上面描述的邻域嵌入方法中存在的问题是,在重建低维空间中的表示时只考虑了让较高相似度的样本点要尽可能地接近,而没有考虑让低相似度的样本点要尽可能地远,这样会导致不同类别的样本点会集中在一起,也就是拥挤问题。下图展示了使用LLE处理MNIST和COIL-20数据集时的效果,COIL-20是一个图片数据集,里面的样本是某件物品(玩具车、杯子等)旋转不同角度拍下的照片:

可以看到不同类别的样本被挤到了一起,这就是上述问题导致的结果。

  1. t-SNE

假设需要将数据降维成,t-SNE的做法首先需要计算每一个样本点对其他样本点的归一化的相似度,这里归一化的目的是为了保证和下面的都是概率分布,从而能够应用KL散度,计算方法如下:

对降维后的数据也需要计算每一个样本点对其他样本点的归一化的相似度,计算方法如下:

我们的目标就是让这两个分布越接近越好,两个分布接近程度的度量应使用KL散度,因此优化的目标函数为:

在求解时使用梯度下降对微分即可。需要说明的是t-SNE是对所有的数据进行计算相似度,如果维度过高则会需要巨大的计算量,因此通常的做法是先使用PCA等方法进行降维然后再使用t-SNE继续降维,比如先使用PCA降到50维,再使用t-SNE继降到2维。

同时需要说明的是t-SNE降维后,如果一个新的数据进来,我们无法获得该数据的降维表示,因此t-SNE不适用于train-test的模式,这种方法通常用于数据的可视化。

  1. 相似度的度量

对于的相似度的度量选用径向基函数(公式省略了):

t-SNE是从SNE算法上改进而来,对于降维后的数据SNE选用径向基函数:

而t-SNE选用t分布:

选用上述相似度度量也就可以避免拥挤问题,原因使用下面的图来说明。在下图中横轴表示两个样本点的距离,纵轴表示概率分布。在优化时我们会让原来的数据的概率与降维后的数据的概率相等,可见如果原来的数据中的两个样本点距离很近时,在降维后的数据中距离也会很近,而如果原来的数据中的两个样本点距离很远,则在降维后的数据中其距离会被拉伸地更远:

  1. 效果

下图展示了t-SNE在MNIST和COIL-20数据集上的效果:

可以看到t-SNE取得了一个比较直观的可视化效果,不同类别的样本被区分地很明显。

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值