GANS系列
SCU-JJkinging
加油,leego must be dai
展开
-
(八)StackGAN-v1 论文笔记与实战
(八)StackGAN-v1 论文笔记与实战一、背景及解决的问题二、Conditioning Augmentation(条件增强)三、实现过程(一)Stage-I GAN(二)Stage-II GAN四、实现细节一、背景及解决的问题 由文本生成高质量的图像是计算机视觉中一个极具挑战性的问题,然而,训练GAN从文本描述中生成高分辨率的真实感图像是非常困难的。简单地在最先进的GAN模型中添加更多的上采样层来生成高分辨率(例如2原创 2020-08-12 14:06:39 · 2155 阅读 · 25 评论 -
(七)SN-GAN论文笔记与实战
(七)SN-GAN论文笔记与实战一、论文笔记一、论文笔记在WGAN-GP中使用gradient penalty 的方法来限制判别器,但这种放法只能对生成数据分布与真实分布之间的分布空间的数据做梯度惩罚,无法对整个空间的数据做惩罚。这会导致随着训练的进行,生成数据分布与真实数据分布之间的空间会逐渐变化,从而导致gradient penalty 正则化方式不稳定。此外,WGAN-GP涉及比较多的运算,所以训练WGAN-GP的网络也比较耗时。SN-GAN提出使用Spectral Normalization(原创 2020-08-04 20:24:02 · 3300 阅读 · 1 评论 -
(六)starGAN论文笔记与实战
三、完整代码import argparseimport torchimport torchvisionimport os import numpy as npimport timeimport itertoolsimport datetimeimport torchvision.transforms as transformsfrom torchvision.utils import save_imagefrom torch.utils.data import DataLoader,原创 2020-07-31 21:05:02 · 1381 阅读 · 1 评论 -
(五)cycleGAN论文笔记与实战
一、cycleGAN架构与目标函数在cycleGAN中有两个生成器和两个判别器,核心思想就是循环一致性,原始输入 xxx 通过生成器 G 获得图像 Y^\hat YY^, 然后再通过生成器 F 获得 x^\hat xx^ ,就是要尽可能让 xxx ≈\approx≈ x^\hat xx^, 这也引出了循环一致性损失。其分为两种:前向循环一致性损失:x→G(x)→F(G(x))≈x后向循环一致性损失:y→F(y)→G(F(y))≈y公式表示为:Lcyc(G,F)L_{cyc}(G, F)Lcy原创 2020-07-28 15:38:21 · 1404 阅读 · 3 评论 -
(四)pix2pixGAN论文笔记与实战
一、论文要点1.图像建模的结构化损失 图像到图像的翻译问题通常是根据像素分类或回归来解决的。这些公式将输出空间视为“非结构化”,即在给定输入图像的情况下,每个输出像素被视为与所有其他像素有条件地独立。而cGANs( conditional-GAN)的不同之处在于学习结构化损失,并且理论上可以惩罚输出和目标之间的任何可能结构。2.损失函数一般的 cGANs 的目标函数如下: xxx是条件,yyy=G(x,zx原创 2020-07-26 21:38:03 · 2344 阅读 · 4 评论 -
(三)WGAN和WGAN-GP解读与项目实战
(三)Wasserstein-GAN一、传统的GAN的缺陷1.超参数敏感 超参数敏感是指网络的结构设定、学习率、初始化状态等超参数对网络的训练过程影响较大,微量的超参数调整将可能导致网络的训练结果截然不同。如图 13.15 所示,图(a)为 GAN 模型良好训练得到的生成样本,图(b)中的网络由于没有采用 Batch Normalization层等设置,导致 GAN 网络训练不稳定,无法收敛,生成的样本与真实样本差距非常原创 2020-07-21 22:49:34 · 5891 阅读 · 2 评论 -
(二)CGAN实战
(二)CGAN实战-按条件生成MNIST手写数字一、CGAN论文要点普通GAN的目标函数:CGAN目标函数:CGAN网络结构示例:二、MNIST实战思想我主要是这样想的: 首先是训练判别器,通过把手写数字图片(32*32)和其对应的标签(经过嵌入层,将该数字对应的标签嵌入成10维向量)一起输入到判别器作为真实图片输入;将随机的latent vector (100维) 加上随机的标签一同输入生成器输出fake图片,再将fake图片连同之前输入生成器的标签一同输入判别器,作为判别器评价原创 2020-07-19 11:12:08 · 937 阅读 · 1 评论 -
(一)DCGAN实战
(一)DCGAN实战一、DCGAN论文要点二、Generator架构三、完整代码(详细注释)四、遇到的问题及解决一、DCGAN论文要点通过跨步卷积层(例如:stride= 2)代替池化层(例如:最大池化层)取消全连接层,用全局平均池化层代替(在判别器的最后一层)所有层的输出都用BatchNormalization做归一化生成器使用转置卷积层,激活函数使用ReLU函数,但最后一层输出层使用Tanh激活函数;判别器使用卷积层,激活函数使用LeakyReLU, the slope of the lea原创 2020-07-17 19:07:44 · 1709 阅读 · 1 评论