李宏毅机器学习笔记10(Unsurpervised Learning02——Neighbor Embedding)

Unsurpervised Learning

 

 

 Neighbor Embedding

1、什么是流形学习

2、LLE(Locally Linear Embedding)

3、LE(Laplacian Eigenmaps)

4、T-SNE(t Stochastic Neighbor Embedding)

Auto-Encoder

1、什么是Auto-Encoder

2、Auto-Encoder+CNN

 

 Neighbor Embedding

1、什么是流形学习

  流形:流形是一种空间,直线或者曲线是一维流形,平面或者曲面是二维流形,更高维之后是多维流形。

  流形假设:某些高维数据,实际上是一种嵌入高维空间里的低维流形数据(“嵌入高维空间中的低维流形”),地球表面(球面)就是一个嵌入在三维空间中的二维流形

  流形学习:2000年在著名的科学杂志《Science》被首次提出。流形学习可用于降维,简单来说就是基于流形数据进行建模的降维算法,说白了就是找一个从流形到欧氏空间的映射

 

          

 

2、LLE(Locally Linear Embedding)

  LLE(Locally Linear Embedding-局部线性嵌入)是一种非线性降维算法,它能够使降维后的数据较好地保持原有 流形结构

 

                  

  1. 寻找每个样本点的k个近邻点;
  2. 由每个样本点的近邻点计算出该样本点的局部重建权值矩阵;
  3. 由该样本点的局部重建权值矩阵和其近邻点计算出该样本点的输出值。

                 

 

  

 

3、LE(Laplacian Eigenmaps)

4、T-SNE(t Stochastic Neighbor Embedding)

  前面的那些问题是:它只假设相近的点应该要是接近的,但它没有说不相近的点要分开,因此T-SNE可用作数据降维与可视化。

   思想:它改变了MDS和ISOMAP中基于距离不变的思想,将高维映射到低维的同时,尽量保证相互之间的分布概率不变SNE将高维和低维中的样本分布都看作高斯分布,而Tsne将低维中的坐标当做T分布,这样做的好处是为了让距离大的簇之间距离拉大,从而解决了拥挤问题。

 

  

 

Auto-Encoder

1、什么是Auto-Encoder

  •  Auto-Encoder是一种用神经网络训练的降维方法,但它是无label的,如何训练呢?
  •   在PCA中,我们可以经过主成分分析算出w,w与x运算出降维后的c,然后利用c(主成分)反算出x。AE的过程也类似!
  •   AE实际上是,输入一张图片,经过Encoder后变成一个维度更小的code(相当于图片压缩),然后再经过decoder解码还原照片,最后最小化输出与输入的距离。

 

                      

 

  实际上Auto-Encoder效果会比PCA好

 

    

 

 

    还可以改进:

    

 

2、Auto-Encoder+CNN

    处理图像一般会用CNN,现在我们CNN+Auto-Encoder模型中会加入反卷积反池化,那么这两个表示什么呢?

 

                               

 

转载于:https://www.cnblogs.com/xxlad/p/11355967.html

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
【流行学习简介】:假设数据是均匀采样于一个高维欧氏空间中的低维流形,流形学习就是从高维采样数据中恢复低维流形结构,即找到高维空间中的低维流形,并求出相应的嵌入映射,以实现维数约简或者数据可视化。它是从观测到的现象中去寻找事物的本质,找到产生数据的内在规律。流形学习方法是模式识别中的基本方法,分为线性流形学习算法和非线性流形学习算法,线性方法就是传统的方法如主成分分析(PCA)和线性判别分析(LDA),非线行流形学习算法包括等距映射(Isomap),拉普拉斯特征映射(LE)等。 【文件包括】: (1)12篇在流形学习理论中具有里程碑意义的文献: [2000] A Global Geometric Framework for Nonlinear Dimensionality Reduction [2000] Nonlinear Dimensionality Reduction by Locally Linear Embedding [2000] the Manifold Ways of Perception [2003] Hessian Eigen-maps: New Locally Linear Embedding Techniques for High-dimensional Data [2004] Locality Pursuit Embedding [2005] Principal Manifolds and Nonlinear Dimensionality Reduction via Tangent Space Alignment [2005] 高维数据流形的低维嵌入及嵌入维数研究 [2005] 基于放大因子和延伸方向研究流形学习算法 [2005] 一种改进的局部切空间排列算法 [2006] 流形学习概述 [2008] Agent普适机器学习分类器 [2008] 基于流形学习的纤维丛模型研究 其中,前两篇在2000年刊登在Science上。 (2)一篇介绍这些文献的总论短文,梳理了文献的门类,介绍了如何更快地从体系上了解流形学习技术。 【注】:这些资料的总价值在100美元左右,均有英文版本,本人吐血奉献,希望大家能从中收益。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值