【复现】GAN的复现和代码详细备注

本文探讨了GAN(生成对抗网络)的Batch Size影响、模式崩溃和收敛问题。在实践中,模式崩溃表现为生成样本单一,而收敛问题则因判别和生成网络相互影响导致无法判断何时停止训练。文章提供了代码实践,涉及模型保存和推断,并对比了GAN与VAE、自回归模型的异同。
摘要由CSDN通过智能技术生成

模型结构

生成器模型结构

基础知识:
Batch Size定义:一次训练所选取的样本数。
Batch Size的大小影响模型的优化程度和速度。同时其直接影响到GPU内存的使用情况,假如你GPU内存不大,该数值最好设置小一点。

【代码】

import argparse   # argparse 是python自带的命令行参数解析包
import os
import numpy as np
import math

import torchvision.transforms as transforms
from torchvision.utils import save_image

from torch.utils.data import DataLoader # 数据加载
from torchvision import datasets
from torch.autograd import Variable

import torch.nn as nn
import torch.nn.functional as F
import torch

os.makedirs("images", exist_ok=True) # 用于递归创建目录

# 创建解析器
parser = argparse.ArgumentParser()
parser.add_argument("--n_epochs", type=int, default=200, help="number of epochs of training")
parser.add_argument("--batch_size", type=int, default=64, help="size of the batches")
parser.add_argument("--lr", type=float, default=0.0002, help="adam: learning rate")  # 使用的adam 学习速率 设置的比较小
parser.add_argument("--b1", type=float, default=0.5, help="adam: decay of first order momentum of gradient")   # 优化器adam 的两个参数 矩估计的指数衰减率
parser.add_argument("--b2", type=float, default=0.999, help="adam: decay of first order momentum of gradient")
parser.add_argument("--n_cpu", type=int, default=8, help="number of cpu threads to use during batch generation")  # 使用cpu 的数量
parser.add_argument("--latent_dim", type=int, default=100, help="dimensionality of the latent space") # 随机噪声z的维度
parser.add_argument("--img_size", type=int, default=
  • 5
    点赞
  • 30
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值