GAN学习指南(通俗易懂):从原理入门到制作生成Demo

这篇博客是本人参考了别的作者的文章所编写的,里面有自己总结的也有参考的,讲得比较通俗易懂,对GAN入门非常有帮助。

本文主要分为三个部分:

  • 介绍原始的GAN的原理

  • 同样非常重要的DCGAN的原理

  • 如何在Tensorflow跑DCGAN的代码,生成如题图所示的动漫头像,附送数据集哦 😃

一、GAN原理介绍

说到GAN第一篇要看的paper当然是Ian Goodfellow大牛的Generative Adversarial Networks(arxiv:https://arxiv.org/abs/1406.2661),这篇paper算是这个领域的开山之作。

GAN的基本原理其实非常简单,这里以生成图片为例进行说明。假设我们有两个网络,G(Generator)和D(Discriminator)。正如它的名字所暗示的那样,它们的功能分别是:

  • G是一个生成图片的网络,它接收一个随机的噪声z,通过这个噪声生成图片,记做G(z)。
  • D是一个判别网络,判别一张图片是不是“真实的”。它的输入参数是x,x代表一张图片,输出D(x)代表x为真实图片的概率,如果为1,就代表100%是真实的图片,而输出为0,就代表不可能是真实的图片。

在训练过程中,生成网络G的目标就是尽量生成真实的图片去欺骗判别网络D。而D的目标就是尽量把G生成的图片和真实的图片区分开来。这样,G和D构成了一个动态的“博弈过程”。

最后博弈的结果是什么?在最理想的状态下,G可以生成足以“以假乱真”的图片G(z)。对于D来说,它难以判定G生成的图片究竟是不是真实的,因此D(G(z)) = 0.5。

这样我们的目的就达成了:我们得到了一个生成式的模型G,它可以用来生成图片。

以上只是大致说了一下GAN的核心原理,如何用数学语言描述呢?这里直接摘录论文里的公式:

img

简单分析一下这个公式:

  • 整个式子由两项构成。x表示真实图片,z表示输入G网络的噪声,而G(z)表示G网络生成的图片。
  • D(x)表示D网络判断真实图片是否真实的概率(因为x就是真实的,所以对于D来说,这个值越接近1越好)。而D(G(z))是D网络判断G生成的图片的是否真实的概率,对于D来说,其值越小越好。
  • G的目的:上面提到过,D(G(z))是D网络判断G生成的图片是否真实的概率,G应该希望自己生成的图片“越接近真实越好”。也就是说,G希望D(G(z))尽可能得大,这时V(D, G)会变小(log对数特点,这里log对数是递增形式)。因此我们看到式子的最前面的记号是min_G。
  • D的目的:D的能力越强,D(x)应该越大,D(G(x))应该越小。这时V(D,G)会变大。因此式子对于D来说是求最大(max_D)

生成器损失最小,判别器损失最大示意图: 

这里,最后生成器和判别器的损失不再下降和上升,说明训练已达到平衡(纳什均衡),训练完成。

在这里插入图片描述

那么如何用随机梯度下降法训练D和G?论文中也给出了算法:

img

这里红框圈出的部分是我们要额外注意的。第一步我们训练D,D是希望V(G, D)越大越好,所以是加上梯度(ascending)。第二步训练G时,V(G, D)越小越好,所以是减去梯度(descending)。整个训练过程交替进行。

这里需要强调的一些关于GAN的交替训练问题:

1)对于生成器,其输入是噪声,输出是图像。当训练时,生成器与判别器是一起使用的,只不过判别器参数不需要更新,仅仅用于判别生成器部分输出的图像是真是假,这个可以从生成器的优化目标可以看出需要同时用到这两个网络。其中生成器生成的图像此时被标记为1(真),这个可以从生成器的最终目标进行解释。

2)对于判别器,其输入是生成器生成的图像和真实的图像,然后判定谁真谁假,然后根据输出结果进行优化。其中生成器得到的图像的标签被标记为0(假),真实的图像的标签标记为1(真)。

如此这样优化,最终达到一个纳什均衡(生成器生成的图像让判别器无法区分是真是假,即输出概率为0.5---理想情况),网络训练完成。

二、DCGAN原理介绍

我们知道深度学习中对图像处理应用最好的模型是CNN,那么如何把CNN与GAN结合?DCGAN是这方面最好的尝试之一(论文地址:[1511.06434] Unsupervised Representation Learning with Deep Convolutional Generative Adversarial Networks

DCGAN的原理和GAN是一样的,这里就不在赘述。它只是把上述的G和D换成了两个卷积神经网络(CNN)。但不是直接换就可以了,DCGAN对卷积神经网络的结构做了一些改变,以提高样本的质量和收敛的速度,这些改变有:

  • 取消所有pooling层。G网络中使用转置卷积(transposed convolutional layer)进行上采样,D网络中用加入stride的卷积代替pooling。
  • 在D和G中均使用batch normalization
  • 去掉FC层,使网络变为全卷积网络
  • G网络使用ReLU作为激活函数最后一层使用tanh
  • D网络使用LeakyReLU作为激活函数

DCGAN中的G网络示意:

img

 三、DCGAN in Tensorflow

好了,上面说了一通原理,下面说点有意思的实践部分的内容。DCGAN的原作者用DCGAN生成LSUN的卧室图片,这并不是特别有意思。之前在网上看到一篇文章 Chainerで顔イラストの自動生成 - Qiita ,是用DCGAN生成动漫人物头像的,效果如下:

img

这是个很有趣的实践内容。可惜原文是用Chainer做的,这个框架使用的人不多。下面我们就在Tensorflow中复现这个结果。 

1. 原始数据集的搜索

1. 原始数据集的搜集

首先我们需要用爬虫爬取大量的动漫图片,原文是在这个网站:http://safebooru.donmai.us/中爬取的。我尝试的时候,发现在我的网络环境下无法访问这个网站,于是我就写了一个简单的爬虫爬了另外一个著名的动漫图库网站:konachan.net - Konachan.com Anime Wallpapers

爬虫代码如下:

import requests
from bs4 import BeautifulSoup
import os
import traceback

def download(url, filename):
    if os.path.exists(filename):
        print('file exists!')
        return
    try:
        r = requests.get(url, stream=True, timeout=60)
        r.raise_for_status()
        with open(filename, 'wb') as f:
            for chunk in r.iter_content(chunk_size=1024):
                if chunk:  # filter out keep-alive new chunks
                    f.write(chunk)
                    f.flush()
        return filename
    except KeyboardInterrupt:
        if os.path.exists(filename):
            os.remove(filename)
        raise KeyboardInterrupt
    except Exception:
        traceback.print_exc()
        if os.path.exists(filename):
            os.remove(filename)


if os.path.exists('imgs') is False:
    os.makedirs('imgs')

start = 1
end = 8000
for i in range(start, end + 1):
    url = 'http://konachan.net/post?page=%d&tags=' % i
    html = requests.get(url).text
    soup = BeautifulSoup(html, 'html.parser')
    for img in soup.find_all('img', class_="preview"):
        target_url = 'http:' + img['src']
        filename = os.path.join('imgs', target_url.split('/')[-1])
        download(target_url, filename)
    print('%d / %d' % (i, end))

这个爬虫大概跑了一天,爬下来12万张图片,大概是这样的:

img

可以看到这里面的图片大多数比较杂乱,还不能直接作为数据训练,我们需要用合适的工具,截取人物的头像进行训练。

2. 头像截取

截取头像和原文一样,直接使用github上一个基于opencv的工具:nagadomi/lbpcascade_animeface

简单包装下代码:

import cv2
import sys
import os.path
from glob import glob

def detect(filename, cascade_file="lbpcascade_animeface.xml"):
    if not os.path.isfile(cascade_file):
        raise RuntimeError("%s: not found" % cascade_file)

    cascade = cv2.CascadeClassifier(cascade_file)
    image = cv2.imread(filename)
    gray = cv2.cvtColor(image, cv2.COLOR_BGR2GRAY)
    gray = cv2.equalizeHist(gray)

    faces = cascade.detectMultiScale(gray,
                                     # detector options
                                     scaleFactor=1.1,
                                     minNeighbors=5,
                                     minSize=(48, 48))
    for i, (x, y, w, h) in enumerate(faces):
        face = image[y: y + h, x:x + w, :]
        face = cv2.resize(face, (96, 96))
        save_filename = '%s-%d.jpg' % (os.path.basename(filename).split('.')[0], i)
        cv2.imwrite("faces/" + save_filename, face)


if __name__ == '__main__':
    if os.path.exists('faces') is False:
        os.makedirs('faces')
    file_list = glob('imgs/*.jpg')
    for filename in file_list:
        detect(filename)

 截取头像后的人物数据:

img

这样就可以用来训练了!

如果你不想从头开始爬图片,可以直接使用我爬好的头像数据(275M,约5万多张图片):https://pan.baidu.com/s/1eSifHcA 提取码:g5qa

3. 训练

DCGAN在Tensorflow中已经有人造好了轮子:carpedm20/DCGAN-tensorflow,我们直接使用这个代码就可以了。不过这份代码有问题,需要将utils.py中的center_crop()和transform()函数替换为如下代码:

def center_crop(x, crop_h, crop_w,
                resize_h=64, resize_w=64):
  if crop_w is None:
    crop_w = crop_h
  h, w = x.shape[:2]    #[H,W,C]
  j = int(round((h - crop_h)/2.))
  i = int(round((w - crop_w)/2.))
  # print('x-type=',type(x))
  im = Image.fromarray(x[j:j+crop_h, i:i+crop_w])   #array转为image
  return np.array(im.resize([resize_h, resize_w]))

def transform(image,input_height, input_width,resize_height=64, resize_width=64,is_crop=True):
    # npx : # of pixels width/height of image
    if is_crop:
        cropped_image = center_crop(image, input_height, input_width,resize_height, resize_width)
    else:
        cropped_image = image
    return np.array(cropped_image)/127.5 - 1.   #将数据归一化到[-1,1]

不过原始代码中只提供了有限的几个数据库,如何训练自己的数据?在model.py中我们找到读数据的几行代码:

if config.dataset == 'mnist':
            data_X, data_y = self.load_mnist()
        else:
            data = glob(os.path.join("./data", config.dataset, "*.jpg"))

这样读数据的逻辑就很清楚了,我们在data文件夹中再新建一个anime文件夹,把图片直接放到这个文件夹里,运行时指定--dataset anime即可。

运行指令(参数含义:指定生成的图片的尺寸为48x48,我们图片的大小是96x96,跑300个epoch):

python main.py --input_height 96 --input_width 96 --output_height 48 --output_width 48 --dataset faces --crop --train --epoch 300 --input_fname_pattern "*.jpg"

4. 结果

第1个epoch跑完(只有一点点轮廓):

img

第5个epoch之后的结果:

img

第10个epoch:

img

200个epoch,仔细看有些图片确实是足以以假乱真的:

img

本文还提供了一个pytorch版本的DCGAN,经本人测试后可用,依然能够生成上图所示的动漫头像,链接地址:

https://github.com/lovepiano/DCGAN-Pytorch 

四、总结

  • 简单介绍了一下GAN和DCGAN的原理。以及如何使用Tensorflow做一个简单的生成图片的demo。
  • GAN论文汇总,包含code:zhangqianhui/AdversarialNetsPapers

 

 参考文章

1、https://blog.csdn.net/LEEANG121/article/details/104113406?depth_1-utm_source=distribute.pc_relevant.none-task&utm_source=distribute.pc_relevant.none-task

2、https://www.cnblogs.com/orangestar/p/11574207.html

  • 0
    点赞
  • 11
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值