![](https://img-blog.csdnimg.cn/20201014180756926.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
自编码器
Micheal超
努力!奋斗!
展开
-
3.2自编码器(变分自编码器,VAE)
拓展(Keras + fashion_mnist)承接上一篇博客:3.自编码器(变分自编码器,VAE)# 加载库import numpy as npimport matplotlib.pyplot as pltfrom keras.layers import Input, Dense, Lambdafrom keras.models import Model, Sequential...原创 2020-04-07 22:25:43 · 223 阅读 · 0 评论 -
3.自编码器(变分自编码器,VAE)
介绍变分自编码器(Variational AutoEncoder, VAE)是生成式模型(Generative Model)的一种,另一种常见的生成式模型是生成对抗网络(Generative Adversial Network, GAN)VAE和AE的区别:AE中隐层表示的分布未知,而VAE中隐变量服从高斯分布AE中学习的是encoder和decoder,VAE中还学习了隐变量的分布,...原创 2020-04-03 10:13:36 · 395 阅读 · 0 评论 -
2.自编码器(去噪自编码器,DAE)
介绍:自编码器(AutoEncoder)是深度学习中的一类无监督学习模型,有encoder和decoder两个部分组成encoder 将原始表示编码成隐层表示decoder 将隐层表示解码成原始表示训练目标为最小化重构误差隐层特征维度一般低于原始特征维度,降维的同时学习更稠密更有意义的表示自编码器主要是一种思想,encoder和decoder可以由全连接层、CNN或RNN等模型实现...原创 2020-04-01 12:41:11 · 2420 阅读 · 0 评论 -
1.自编码器(keras+mnist)
介绍自编码器(autoencoder, AE)是一类在半监督学习和非监督学习中使用的人工神经网络(准确地来说自编码器是一个自监督的算法,并不是一个无监督算法),其核心的作用是能够学习到输入数据的深层表示。自编码器包含编码器(encoder)和解码器(decoder)两部分。自编码器的相关模型:收缩自编码器(undercomplete autoencoder)、正则自编码器(regulari...原创 2020-03-31 11:13:32 · 851 阅读 · 0 评论