这篇论文就不像是前面那篇图像分割的论文更像是计算机视觉的论文。这篇论文是属于机器学习领域并且更像于流形学习中的一类。但是基本方法还是很像前面那篇图像分割的论文,都是利用拉普拉斯矩阵来求其特征向量来实现我们降维的目的(也跟谱聚类的思想很类似),这里想简单的说明这篇利用Laplacian Eigenmaps来进行降维的基本算法流程:
降维的基本意思就是:我们现在有x_1,x_2,….,x_k的k个点在空间R_l中(可以简单理解每一个点的维度都是l),然后我们用y_1,y_2,…,y_k的k个点在空间R_m中(y的每一个点的维度都是m)来表示x点
(1)我们要先构建邻接图(也就是邻接矩阵),也就要确定图中的每一个结点应该要和其他哪些点相连。
准则有两个:
1. 判断两个i,j之间的距离 ||xi−xj||2<ε | | x i − x j | | 2 < ε ,即两点间的距离小于这个阈值就将这两个点相连起来。
这个方法的优点:这种方法有助于得到一个全局最优的图。缺点:这个阈值很难选取。
2. 选取点i周围最近的n个点相连起来,这个方法的优点:免去了选择阈值的困难。缺点:构建出来的图更多是局部最优的图。
(2)我们得到二二相连的信息之后,我们就要知道两个点相连的边权如何设置呀。这样同样给出了两种方法:
1. 借助Heat kernel的知识来计算我们的边权:
如果两个点相连接,则有:
Wij=e⊥||