PyTorch版本DCGAN实现的注解

PyTorch版本DCGAN实现的注解

该篇博文是对PyTorch官方ExamplesDCGAN(Deep Convolution Generative Adversarial Networks)实现过程中的一些细节要点的注解

首先是对该脚本运行参数的一些说明:

  • —dataset 指定训练数据集
  • —dataroot 指定数据集下载路径或者已经存在的数据集路径
  • —workers DataLoader进行数据预处理及数据加载使用进程数
  • —batchSize 一次batch进入模型的图片数目
  • —imageSize 原始图片重采样进入模型前的大小
  • —nz 初始噪音向量的大小(Size of latent z z vector)
  • —ngf 生成网络中基础feature数目(随着网络层数增加,feature数目翻倍)
  • —ndf 判别网络中基础feature数目 (随着网络层数增加,feature数据翻倍)
  • —niter 网络训练过程中epoch数目
  • —lr 初始学习率
  • —beta1 使用Adam优化算法中的 β 1 参数值
  • —cuda 指定使用GPU进行训练
  • —netG 指定生成网络的检查点文件(保存的生成网络的权值文件)
  • —netD 指定判别网络的检查点文件(保存的判别网络的权值文件)
  • —outf 模型输出图片以及检查点文件的保存路径
  • —manualSeed 指定生成随机数的seed

下面说一下我自己认为比较重要的一些细节点:

数据预处理

我以CIFAR10数据集举例,原始数据是 32×32 32 × 32 的图片,在数据加载过程中,我们使用transforms.Compose()将一系列预处理变换进行组合,transforms.Resize()将图片重采样到指定大小,transforms.ToTensor()将PIL Image或者numpy.ndarray对象转为tensor并且将原来[0, 255]的取值范围,变为[0.0, 1.0]的取值范围。最后,transforms.Normalize()将图像范围转变为[-1, 1].

transforms.Normalize()的第一个参数是平均值,第二个参数是标准差,图像有几个channel,给定的平均值和标准差应该有多大的Size. transforms.Normalize的计算过程是这样的:input[channel] = (input[channel] - mean[channel]) / std[channel].

这些操作在DataLoader每次迭代过程中计算,而不是直接作用在Dataset原始数据集上面

生成网络

生成网络中主要使用了5个逆卷积层将原始的噪音数据扩展成 64×64 64 × 64 的图片,卷积核的大小是 4×4 4 × 4 , feature maps个数的变化依次是 ngf×8 n g f × 8 -> ngf×4 n g f × 4 -> ngf×2 n g f × 2 -> ngf n g f ->

  • 7
    点赞
  • 51
    收藏
    觉得还不错? 一键收藏
  • 9
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 9
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值