初始PyTorch(八):自编码器Auto-Encoders

1.Auto-Encoder自编码器

用途:无监督数据降维,比起PCA,AE更保持位置相关性。输出输出维度是一样的,目标就是生成自己,先降维再升维。

AE VS. PCA

如何训练?

对于二分类问题,当x=0,loss(fx)=-(log(1-)),为了最小化loss,越小越好接近0也就是真实x=0。
同理,当x=1,loss(fx)=-(log()),为了最小化loss,越大越好接近1也就是真实x=1。这就是minmize算法。

变种一:Denoising AutoEncoder

加入了噪声,对比AE在一定程度上防止过拟合。

变种二:Denoising AutoEncoder

按一定概率Dropout,迫使模型更加鲁棒,可以提升精度。可以理解为训练增加难度,测试时用全连接减少难度。对比AE在一定程度上防止过拟合,下图Dropout=0.2时精度最高。

变种三:Adversarial AutoEncoder 让随机种子变真实

增加了鉴别器,判断新生成的数据z'是否符合真实数据z的分布。迫使隐藏层向量完成图片重建外,还符合真实图片的分布。

  其中,KL计算:

前面是AE的loss,后面KL是指pq的分布,重合为0。训练的话就是让Loss变小,pq更加的重合。

x=>N(μ,σ²).sample=>

变种四:Variational Autoencoder 变分自动编码器

VAE解决了之前N(μ,σ²)在反向传播时不可导的问题。

其中推导:

 

AE VS. VAE

GAN VS. VAE

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

nooobme

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值