1.目标:
将目标的()维表示特征的向量降为(
)维,
。
2.输入数据:
,其中
为(
)维表示第
个目标特征的向量,我们将每一个目标看作
维空间中的一个点,那么
为空间中第
个点的坐标。
3.输出数据:
,其中
为(
)维表示第
个目标降维后的特征向量。
4.基本思想
将高维坐标中的点投影到低维空间中,保持点彼此之间的相似性尽可能不变。
5.方法
5.1相似性定义
在经典MDS降维算法中,点与点之间的相似性定义为两个点之间的欧几里得距离,在非经典MDS降维算法中,点与点之间的相似性定义为两个点之间的非欧几里得距离(其他距离),我们使用 表示第
个点与第
个点在原高维空间上的欧式距离,
表示他们在低维空间上的距离。
5.2推导降维后的特征矩阵![\textbf{Z}](https://latex.csdn.net/eq?%5Ctextbf%7BZ%7D)
(1)设降维后第个点与第
个点的距离如公式(1):
(1)
(2)不失一般性,我们假设维空间中的实例点是中心化(所有点在任意一维上的坐标和为0)的,即:
(2)
(3)公式(1)左右两边在上求和:
(3)
同理,在上求和
(4)
(4)公式(3)左右两边再在上求和:
(5)
(5)定义内积矩阵,则
,根据公式(1)
(6)
根据公式(3)(4),
(7)
所以,
根据公式(5)
所以
(6)因为是一个是对称矩阵,因此对矩阵
进行特征分解可以得到:
其中, 是的特征值矩阵,
是特征向量矩阵。所以
5.3非经典MDS的求解方式
当距离标准是欧式距离的时候,可以直接求出解析解。但是当距离标准不是欧式距离的 时候,解析解不存在,需要采用优化算法的形式求解。我们的目标是使数据点在高维和低维 空间中的距离尽可能的相近,因此我们可以构造如下目标函数(损失函数):
通过最小化损失函数的值来求点在维空间的分布。
6.MDS的优缺点
6.1优点:
(1) 不需要先验知识,计算简单
(2) 保留了数据在原始空间的相对关系,可视化效果比较好
6.2缺点:
(1) 如果用户对观测对象有一定的先验知识,掌握了数据的一些特征,却无法通过参数化等方法对处理过程进行干预,可能会得不到预期的效果
(2) 各个维度的地位相同,无法区分不同维度的重要性。