Unsupervised learning:neighbor embedding
上节讲的是线性降维PCA,这节主要是讲非线性降维
这节课主要学习了将高维空间中的数据,降低到低维度的几种方法:
1.Locally linear embedding(局部线性嵌入):利用降维前后坐标关系不变,求解出降维之后的点。
2.laplacian eigenmaps (拉普拉斯特征映射):希望相互间有关系的点在降维后的空间中尽可能的靠近。Laplacian Eigenmaps可以反映出数据内在的流形结构。
3.t-SNE T-Distribution Stochastic Neighbour Embedding(T 分布随机近邻嵌入):
t-SNE主要的优势就是保持局部结构的能力。这意味着高维数据空间中距离相近的点投影到低维中仍然相近。和上面的方法相比,t- SNE能生成漂亮的可视化。
目录
1.locally linear embedding (LLE)
二、t-SNE:T-distrubuted stochastic Neighbor embedding
一、Manifold learning
数据分布在多维空间,以地球为例,只有在很近的距离,欧式几何才会成立
在s型的多维空间中data的相似度,不能简单的从距离来评判,需要将多维空间降到低维空间。将高维空间的数据摊平、展开,