DCGAN生成二次元头像(Pytorch)

任务:基于Pytorch搭建DCGAN网络进行训练自动生成二次元头像的模型

简介

好久没发Blog了,发个Pytorch的入门项目一起happy下~
数据集:网盘地址
有大佬在知乎专栏提供了公开的二次元头像的数据集。本篇博客即在这个数据集上进行训练。

网络介绍

DCGAN的全称是深度卷积生成对抗网络,使用深度卷积网络作为鉴别器,用反卷积神经网络作为生成器。
在DCGAN的训练过程中,生成模型的训练目标是使得生成的图片可以很好地欺骗判别模型,使得判别模型认为生成模型生成的图片是"真实"的;而判别模型的训练目标则是尽量地正确区分生成模型生成的图片和真实存在的图片。于是,这种训练方式就很自然地产生了生成模型和判别模型之间的"博弈"。
在理想情况下,我们希望DCGAN训练好之后,生成模型生成的图片是可以以假乱真的。
鉴别器
原数据集的图片大小为96*96
第一层:CNN
卷积大小4*4,步长2,输出通道数32
输入5*3*96*96
输出5*32*48*48
第二层:CNN
卷积大小4*4,步长2,输出通道数64
输入5*32*48*48
输出5*64*24*24
第三层:CNN
卷积大小4*4,步长2,输出通道数128
输入5*64*24*24
输出5*128*12*12
第四层:CNN
卷积大小4*4,步长2,输出通道数256
输入5*128*12*12
输出5*256*6*6
展开为256*6*6一维标量
第五层:线性层
使用sigmoid函数进行二元分类

生成器
随机生成100维向量
第一层:线性层
输入5*100
输出5*1024*6*6
第二层:transpose CNN
卷积大小4*4,步长2,输出通道数512
输入5*1024*6*6
输出5*512*12*12
第三层:transpose CNN
卷积大小4*4,步长2,输出通道数256
输入5*512*12*12
输出5*256*24*24
第四层:transpose CNN
卷积大小4*4,步长2,输出通道数128
输入5*256*24*24
输出5*128*48*48
第四层:transpose CNN
卷积大小4*4,步长2,输出通道数3
输入5*128*48*48
输出5*3*96*96

训练过程
(1)固定生成器,训练鉴别器
(2)固定鉴别器,训练生成器

代码详解

import torch
import torch.nn as nn
import torch.optim as optim
import torchvision
from torchvision import datasets,transforms,models
import matplotlib.pyplot as plt
import os

#对图片进行变换
#RandomHorizontalFlip:随机水平翻转给定的图片,概率为0.5。即:一半的概率翻转,一半的概率不翻转
#ToTensor:将图片转为Tensor格式
#Normalize::用给定的均值和标准差分别对每个通道的数据进行正则化。
#   给定均值(M1,…,Mn),给定标准差(S1,…,Sn),其中n是通道数(一般是3),对每个通道进行
#       output[channel] = (input[channel] - mean[channel]) / std[channel]
data_transform = transforms.Compose([
    transforms.RandomHorizontalFlip(),
    transforms.ToTensor(),
    transforms.Normalize([0.5, 0.5, 0.5], [0.5, 0.5, 0.5])
])

trainset = datasets.ImageFolder('faces', data_transform) #数据集
#加载数据集的Dataloader,每次随机打乱,加载5张图片
trainloader = torch.utils.data.DataLoader(trainset, batch_size=5, shuffle=True)

#展示并保存图片
def imshow(inputs, picname):
    plt.ion()
    inputs = inputs / 2 + 0.5 #加载数据集的时候使用了正则化,需要恢复一下
    inputs = inputs.numpy().transpose((1, 2, 0)) #pytorch加载图片通道数在前,我们展示图片图片的时候通道数在后
    plt.imshow(inputs)
    # plt.show()
    plt.pause(1)
    plt.savefig(picname+'.jpg') #保存图片
    plt.close()

#鉴别器
class D(nn.Module):
    def __init__(self, nc, ndf):
        super(D, self).__init__()
        self.layer1 = nn.Sequential(
            nn.Conv2d(nc, ndf, kernel_size=4, stride=2, padding=1),
            nn.BatchNorm2d(ndf),
            nn.LeakyReLU(0.2, inplace=True)
        )
        self.layer2 = nn.Sequential(
            nn.Conv2d(ndf, ndf*2, kernel_size=4, stride=2, padding=1),
            nn.BatchNorm2d(ndf*2),
            nn.LeakyReLU(0.2, inplace=True)
        )
        self.layer3 = nn.Sequential(
            nn.Conv2d(ndf*2, ndf*4, kernel_size=4, stride=2, padding=1),
            nn.BatchNorm2d(ndf*4),
            nn.LeakyReLU(0.2, inplace=True)
        )
        self.layer4 = nn.Sequential(
            nn.Conv2d(ndf*4, ndf*8, kernel_size=4, stride=2, padding=1),
            nn.BatchNorm2d(ndf*8),
            nn.LeakyReLU(0.2, inplace=True)
        )
        self.fc = nn.Sequential(
            nn.Linear(256*6*6, 1),
            nn.Sigmoid()
        )
    def forward(self, x):
        out = self.layer1(x)
        out = self.layer2(out)
        out = self.layer3(out)
        out = self.layer4(out)
        out = out.view(-1, 256*6*6)
        out = self.fc(out)
        return out

#生成器
class G(nn.Module):
    def __init__(self, nc, ngf, nz, feature_size):
        super(G, self).__init__()
        self.prj = nn.Linear(feature_size, nz*6*6)
        self.layer1 = nn.Sequential(
            nn.ConvTranspose2d(nz, ngf*4, kernel_size=4, stride=2, padding=1),
            nn.BatchNorm2d(ngf*4),
            nn.ReLU()
        )
        self.layer2 = nn.Sequential(
            nn.ConvTranspose2d(ngf*4, ngf*2, kernel_size=4, stride=2, padding=1),
            nn.BatchNorm2d(ngf*2),
            nn.ReLU()
        )
        self.layer3 = nn.Sequential(
            nn.ConvTranspose2d(ngf*2, ngf, kernel_size=4, stride=2, padding=1),
            nn.BatchNorm2d(ngf),
            nn.ReLU()
        )
        self.layer4 = nn.Sequential(
            nn.ConvTranspose2d(ngf, nc, kernel_size=4, stride=2, padding=1),
            nn.Tanh()
        )

    def forward(self, x):
        out = self.prj(x)
        out = out.view(-1, 1024, 6, 6)
        out = self.layer1(out)
        out = self.layer2(out)
        out = self.layer3(out)
        out = self.layer4(out)
        return out

# inputs, _ = next(iter(trainloader))
# imshow(torchvision.utils.make_grid(inputs), "RealDataSample")

d = D(3, 32) #定义鉴别器,输入通道为3,输出通道为32
g = G(3, 128, 1024, 100) #定义生成器,最后一层输出通道为3,输入通道为128,线性层输出通道为128,输入通道为100

criterion = nn.BCELoss() #使用交叉熵作为损失函数
#生成器和鉴别器均采用Adam优化器
d_optimizer = torch.optim.Adam(d.parameters(), lr=0.0003)
g_optimizer = torch.optim.Adam(g.parameters(), lr=0.0003)

def train(d, g, criterion, d_optimizer, g_optimizer, epochs=1, show_every=1000, print_every=10):
    iter_count = 0
    for epoch in range(epochs):
        for inputs,_ in trainloader:
            real_inputs = inputs #5张真实图片
            fake_inputs = g(torch.randn(5, 100)) #5张假图片

            #对应标签
            real_labels = torch.ones(real_inputs.size(0))
            fake_labels = torch.zeros(5)

            #鉴别真实图片
            real_outputs = d(real_inputs)
            d_loss_real = criterion(real_outputs, real_labels)
            real_scores = real_outputs

            #鉴别假图片
            fake_outputs = d(fake_inputs)
            d_loss_fake = criterion(fake_outputs, fake_labels)
            fake_scores = fake_outputs

            d_loss = d_loss_fake + d_loss_real #计算总损失
            #反向传播
            d_optimizer.zero_grad()
            d_loss.backward()
            d_optimizer.step() #更新鉴别器参数

            #生成假图片,并用更新后的鉴别器进行鉴别
            fake_inputs = g(torch.randn(5, 100))
            outputs = d(fake_inputs) #鉴别器的标签
            real_labels = torch.ones(outputs.size(0)) #真实的标签
            g_loss = criterion(outputs, real_labels)
            #反向传播
            g_optimizer.zero_grad()
            g_loss.backward()
            g_optimizer.step() #更新鉴别器
            
            #保存图片
            if iter_count % show_every == 0:
                print('Epoch:{}, Iter:{}, D:{:.4}, G:{:.4}'.format(epoch, iter_count, d_loss.item(), g_loss.item()))

                picname = "Epoch_"+str(epoch)+"Iter_"+str(iter_count)
                imshow(torchvision.utils.make_grid(fake_inputs.data), picname)
            #打印损失函数
            if iter_count % print_every == 0:
                print('Epoch:{}, Iter:{}, D:{:.4}, G:{:.4}'.format(epoch, iter_count, d_loss.item(), g_loss.item()))

            iter_count += 1
    print("Finsh")

train(d, g, criterion, d_optimizer, g_optimizer, epochs=100)

实验结果

epoch=50
在这里插入图片描述
epoch=100
在这里插入图片描述
我只训练到100次,这个时候的差多动漫人物的雏形已经有了,还有些细节要改善。大家也可以试一下调大epoch,结果应该会更好~。

参考

DCGAN论文及代码学习

  • 4
    点赞
  • 24
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值