Denoise Autoencoders
DerrickLyh
这个作者很懒,什么都没留下…
展开
-
Stacking Autoencoders vs DBN
Stacking Autoencoders vs DBN 比较||类比是人类思维过程的一种形式,是抽象的,也是人类创新的一种方法。它可以利用前人研究的成果的去研究新的领域,以更快的速度在新的领域取得突破口。 一、Autoencoder VS RBM二、Stacking Autocoders VS DBN原创 2014-01-02 08:54:03 · 1510 阅读 · 0 评论 -
Gibbs_Sampling
在直接采样困难的时候,在统计学和统计物理学中,吉布斯采样或者说吉布斯采样器是一种马尔可夫链蒙特卡罗算法,目的是为了获得一系列的观察值,而这些观察值近似的服从于指定的多变量概率分布(也就是说,服从于两个或者更多个随机变量的联合概率分布)。这些采取得到的序列可以用来近似联合分布(也就是说,用来产生一个分布的直方图),近似其中一个变量的边缘分布或者其中一些变量子集的边缘分布(比如,未知的参数或者隐藏变量),或者用来计算积分(如诸多个变量当中一个变量的期望值)。典型地,某些变量对应于的观察值是已知的,所以不需要被采原创 2014-01-16 09:04:13 · 1415 阅读 · 0 评论 -
多层神经网络优化难题与解决方法
多层神经网络优化难题与解决方法多层神经网络优化难题的提出:1、Bengio et al.,2007 http://www.iro.umontreal.ca/~bengioy/yoshua_en/index.html 多层神经网络优化难题的解决:1. http://www.cs.toronto.edu/~hinton/ ,2006,Hinton2.原创 2014-01-04 10:22:21 · 1306 阅读 · 0 评论 -
熵_信息论
熵_信息论* 随机变量* 随机矢量* 随机矢量的实例* 矩阵* 概率密度函数* 概率分布函数* 边缘概率* 联合概率* 条件概率* 条件分布* 概率分布* 概率密度 *****************************************************************************************原创 2014-01-02 08:31:38 · 870 阅读 · 0 评论 -
Stacking Autoencoders VS CDBN
Stacking Autoencoders VS CDBN Stacking Autoencoders和CDBN都是深度学习算法。它们之间应该有一定的共性,无论是在它们框架的构建,还是在它们学习得到的特征。把它们放在一起比较有利用理解它们自己的原理,加深记忆,搭建论文,以论述研究的可行性。 框架的搭建: 1. Sparsity 2. H原创 2014-01-02 08:47:19 · 1171 阅读 · 0 评论 -
数字特征学习VS人脸特征学习
数字特征学习VS人脸特征学习一、“数字”图像的特点二、人脸图像的特点三、数字图像与人脸图像的异同 * 特征描述 *像素分布 *复杂程度 *学习情况原创 2014-01-02 08:12:26 · 749 阅读 · 0 评论 -
Stacking Denoised Autoencoders 涉及到的基本概念
Stacking Denoised Autoencoders 涉及到的基本概念 1. Unsupervised Feature Learning2. Machine Learning3. Supervised Learning4. Autoencoder5. Sparse Autoencoder ......原创 2014-01-02 09:23:25 · 857 阅读 · 0 评论 -
噪声
噪声一、定义二、分类三、在自编码中的作用原创 2014-01-02 08:20:37 · 846 阅读 · 0 评论 -
Stacking Autoencoders VS Stacking RBMs
Stacking Autoencoders VS Stacking RBMs一、训练的方式二、学习的效果三、搭建的方式原创 2014-01-02 08:18:32 · 877 阅读 · 0 评论 -
Training a deep autoencoder or a classifier on MNIST digits_Rbm训练(python)
Training a deep autoencoder or a classifier on MNIST digits_Rbm训练一、Rbm阅读材料 http://en.wikipedia.org/wiki/Restricted_Boltzmann_machine http://deeplearning.net/tutorial/rbm.html二、Rbm训练的基本原理原创 2014-01-11 16:13:23 · 1402 阅读 · 0 评论