E. 深度学习 — 生成式对抗网络(GAN) 之应用
GAN的特征提取
- InfoGAN
- 网络结构
- c+z -> Generator -> x
- x -> Discriminator -> scalar
- x -> Classifier -> c
- 特点
- Generator + Classifier:本质上就是 Auto-encoder
- Discriminator 和 Classifier 参数共享
- 网络结构
- VAE-GAN
- 网络结构
- x -> Encoder -> z -> Generator(Decoder)-> Discriminator -> scalar
- 组成部分
- Encoder
- Minimize reconstruction error
- z close to normal
- Generator(Decoder)
- Minimize reconstruction error
- cheat discriminator
- Discriminator
- Discriminator real, generated and reconstructed images
- Encoder
- 网络结构
- BIGAN
- 网络结构
- x -> Encoder -> z
- z -> Decoder -> x
- x + z -> Discriminator -> y(from encoder or decoder)
- 网络结构
- GAN + Autoencoder
- 目标
- 制定图片,是由哪个code(vector)生成
- 网络结构
- encoder -> decoder 模型
- 其中,encoder 的参数可以被 discriminator 初始化
- 目标
- Domain-adversarial Training
- 图像
- 网络结构
- x -> nn -> features f
- features f -> label predictor -> class label y
- features f -> Domain classifier -> domain label y
- 网络结构
- Feature Disentangle
- 声纹提取
- 图像
- 智能photoshop
- Image super resolution
- 特点
- 模糊图 -> 清晰图
- 问题
- 图上的细节,可能跟原图会不一样
- 特点
总结
- EBGAN
- ScrachGAN
- GAN 产生 Sequence
- Progressive GAN
- LSGAN (Least Square GAN)
- LSGAN (Loss-sensitive GAN)
- GAN(2014)
- 子节点
- Improved WGAN(2016)
- 子节点
- WGAN(2017) — Stabilize training
- 通过 Sasserstein Distance 评估 Pdata 和 Pg 的距离
- Discriminator 必须足够平滑
- 方法一:设置 Weight 的上下限
- 方法二:Gradient Penalty,Pg 和 Pdata的中间点 尽可能的靠近1
- 方法三:Spectral Normalization -> Keep Gradient norm smaller than 1 everywhere
- 子节点
- WGAN-GP(2017)
- Gradient penalty
- 子节点
- SNGAN(2018)
- WGAN-GP(2017)
- DCGAN(2015) — Use CNN
- 子节点
- CycleGAN(2017)
- 子节点
- PGGAN(2017)
- PGGAN(2017)
- 子节点
- CycleGAN(2017)
- 子节点
- WGAN(2017) — Stabilize training
- 子节点
- Improved WGAN(2016)
- 子节点