deep learning---SAE(stacked autoencoder)

栈式自编码器(SAE)是一种深度学习模型,由多个稀疏自编码器层堆叠而成。每一层自编码器的隐藏层输出作为下一层的输入,最终所有层的特征与softmax分类器结合用于训练和分类任务。在MNIST数字分类的例子中,SAE首先学习初级特征,然后在这些特征上学习次级特征,并通过softmax分类器进行数字标签预测。经过参数微调后的SAE模型表现出强大的表达能力和深度学习的优势,能学习到不同层次的图像特征,适用于图像处理任务如分类和检索。
摘要由CSDN通过智能技术生成

SAE栈式自编码器参考自网页http://ufldl.stanford.edu/wiki/index.php/Stacked_Autoencoders点击打开链接

A stacked autoencoder is a neural network consisting of multiple layers of sparse autoencoders in which the outputs of each layer is wired to the inputs of the successive layer. 就是把前一层自编码器的中间的隐藏层(特征1)作为后一层自编码器的输入,再将得到的隐含层(特征2 )作为下一层的输入,如此重复,最后将得到的特征作为输入集输入到softmax classifier(或者其他分类器)中训练。然后整个网络训练完之后,将各个步骤得到的特征矩阵与分类器的参数合成新的网络。 (大概意思,仅供参考)

可以看下面这个例子增强理解

具体的例子

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值