Autoencoder ,Sparse Coding ,Sparse autoencoder 简介

本文介绍了自编码器(Autoencoder)的概念,起源于Hinton的深度学习论文,通过训练神经网络实现数据的低维表示和重构。接着讲解了稀疏编码(Sparse Coding),这是一种无监督学习方法,寻找超完备基向量来高效表示数据。最后,讨论了稀疏自编码器(Sparse Autoencoder),它是将稀疏性约束应用于自编码器,用于学习数据的稀疏表示。
摘要由CSDN通过智能技术生成

最近刚刚运行完成sparse coding;才解决了自己的困惑,以前学习完Sparse autoencoder从感觉这两个东西是“一丘之貉”;但是运行完成之后才发现他们两个有很大的不同,虽然都是对数据进行变换,但是二者的变换原理是完全不同的。详细的下面纤细介绍。

1.Autoencoder介绍

Autoencdoer这个概念最早应该是出自hinton在science杂志上发表的哪一篇开启深度学习的旷世之作“rerducing thedimensionality of data with neural network”上,提取重点简单翻译之。

摘要简单翻译

……通过训练一个中心层有少数隐层节点的多层的神经网络,来重构高维输入数据,高维输入数据可以转换到一个低维数据。在这个“Autoencdoer”中,梯度下降算法可以用来fine_tuning权值矩阵。……

正文简单翻译

……我们简述一种非线性的PCA方法,这种方法应用自适应,多层编码(encoder)网络来转换高维数据到一个低维编码,并且架构一个相似的反编码“decoder”网络来复原低维编码到原始数据。在两层网络结构中,通过随机初始化权值矩阵,通过训练,最小化重构数据和原始数据的差异;通过链式法则反向传播误差,首先通过反编码网络部分,在通过编码网络部分,所需要的梯度可以很容易的获得。整个网络叫做“Autoencdoer”。……

这篇论文中,hinton通过RBM来训练每一层的初始权值,然后堆叠多个RBM得到一个中心层网络节点少,encoder和decoder部分对称的DBN网络来进行“Autoencdoer”。

Autoencoder介绍:(网上看到的梁斌博客,一个比较好的介绍就copy过来了)

copy自http://blog.sina.com.cn/s/blog_593af2a70101endk.html

简单来说autoencoder是一个压缩编码器,也就是对input的一坨东西通过变换,输出和input一样的东西。例如input是一个鸡,ouput也是一个鸡,input是一个鸭,output也是一个鸭。学术一点说就是找到一个函数能够使得Function(input) = input,叫做identity function。即学习Hw,b(x)=x。

    但这和深度学习有什么关系呢? 这就要说到压缩编码&#x

评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值