Auto-Encoder和VAE
文章平均质量分 80
Auto-Encoder:自动编码器
VAE:变分自编码器
马鹏森
这个作者很懒,什么都没留下…
展开
-
VQ-VAE中如何解决梯度截断(不可导)问题?直通估计、(stop gradient,停止梯度)
它简称为sg也就是说,前向传播时,𝑠𝑔里的值不变(sg=1);反向传播时,𝑠𝑔按值为0求导(sg=0),即此次计算无梯度。原创 2024-07-03 19:29:19 · 530 阅读 · 0 评论 -
diffusion常见VAE使用及其训练
Latent Diffusion Models 包含很多Kl8/4...的VAE,这些VAE可以使用自己的数据集进行预训练:网址:GitHub - CompVis/latent-diffusion: High-Resolution Image Synthesis with Latent Diffusion Models没有发现训练代码...他俩与“kl-f8-VAE”的区别:它们是为了增强stable diffusion人脸的训练- trained on LAION-aesthetics+human:The原创 2024-03-11 09:39:13 · 1979 阅读 · 0 评论 -
在预训练VAE后验分布中采样,从而得到与输入相似的数据
这个预训练模型包含了“encoder” + “decoder” 两部分。原创 2024-03-04 10:32:31 · 324 阅读 · 0 评论 -
AE(自动编码器)、VAE(变分自动编码器)、VQ-VAE(向量量化变分自编码器) 的区别和联系?
这里主要谈一下他们的区别?原创 2023-05-10 07:31:48 · 5269 阅读 · 1 评论 -
VAEGAN:理解 VAE 与 GAN【图像生成】
VAEGAN:理解 VAE 与 GAN【图像生成】原创 2022-10-30 09:19:29 · 4948 阅读 · 4 评论 -
VAE变分自编码器
1)关于VAE那么什么是VAE呢?简单来讲,一个可以和GAN相媲美的生成网络。我们可以输入一个低维空间的Z,映射到高维空间的真实数据。比如,生成不同样的数字,人脸,卡通头像等等。上图就具体展示了VAE的作用,作图是经过一轮训练之后的输出结果,中间的图是经过9轮训练之后的输出结果,而右图就是我们真实地数据。(这里我猜测是将图片先编码,再解码这个全过程,而不是仅仅通过一个随机量去生成)。2)VAE与GAN之间的差异性既然VAE与GAN都是属于最近很火的生成网络序列,那么他们之间有什么不同呢?原创 2021-04-03 09:40:47 · 24922 阅读 · 1 评论 -
自编码器(Auto-encoder) (下)它的应用
Feature Disentangle 以及Voice Conversion(利用Feature Disentangle实现无监督)你可以把一段声音丢到 Encoder 里面,变成向量 再丢回 Decoder,变回原来的声音,代表这个向量包含了语音里面所有重要的资讯。包括这句话的内容是什么,就是 Encoder 的资讯,还有这句话是谁说的,就是 Speaker 语者的资讯过去是需要监督学习,A与B必须说同样的句子,然后再不断的训练,但是对于大规模的数据集是不合适的,而今天有了 Featur.原创 2021-12-17 14:50:17 · 7023 阅读 · 0 评论 -
自编码器(Auto-encoder) (上) – 基本概念
目录auto-cencoder简单介绍why auto-cencoder ?what's benefit is change high-dimension to low-dimension ?De-noising Auo-Encoderauto-cencoder简单介绍Encoder就是把高维的转为低维的向量(所以这个低维的向量叫做bottleneck),我感觉VAE与UNet以及Cycle GAN类似why auto-cencoder ?what's benefit i原创 2021-12-17 11:00:08 · 7487 阅读 · 2 评论