Tensorflow2.0实现对抗生成网络(GAN)

在这篇文章中,我们使用Tensorflow2.0来实现GAN,使用的数据集是手写数字数据集。

引入需要的库

import tensorflow as tf
from tensorflow import keras
from tensorflow.keras import layers
import matplotlib.pyplot as plt
%matplotlib inline

导入数据,归一化数据

(train_images, train_labels), (_, _) = keras.datasets.mnist.load_data()
train_images = train_images.reshape(train_images.shape[0], 28, 28, 1).astype('float32')
train_images = (train_images-127.5)/127.5

BATCH_SIZE = 256
BUFFER_SIZE = 60000

datasets = tf.data.Dataset.from_tensor_slices(train_images)
datasets = datasets.shuffle(BUFFER_SIZE).batch(BATCH_SIZE)

建立生成器

def generator_model():  # 用100个随机数(噪音)生成手写数据集
    model = keras.Sequential()
    model.add(layers.Dense(256, input_shape=(100,), use_bias=False))
    model.add(layers.BatchNormalization())
    model.add(layers.LeakyReLU())
    
    model.add(layers.Dense(512, use_bias=False))
    model.add(layers.BatchNormalization())
    model.add(layers.LeakyReLU())
    
    model.add(layers.Dense(28*28*1, use_bias=False, activation='tanh'))
    model.add(layers.BatchNormalization())
    
    model.add(layers.Reshape((28, 28, 1)))
    
    return model

建立判别器

def discriminator_model():  # 识别输入的图片
    model = keras.Sequential()
    model.add(layers.Flatten())
    
    model.add(layers.Dense(512, use_bias=False))
    model.add(layers.BatchNormalization())
    model.add(layers.LeakyReLU())
    
    model.add(layers.Dense(256, use_bias=False))
    model.add(layers.BatchNormalization())
    model.add(layers.LeakyReLU())
    
    model.add(layers.Dense(1))
    
    return model

分别定义判别器和生成器的损失函数

对于判别器来说,我们需要将导入的原始图片识别为真(1),将生成器胜场的图像识别为假(0)。
对于生成器来说,我们需要使得生成的图片无限接近于真实图片。

cross_entropy = keras.losses.BinaryCrossentropy(from_logits=True)

def discriminator_loss(real_out, fake_out):
    real_loss = cross_entropy(tf.ones_like(real_out), real_out)
    fake_loss = cross_entropy(tf.zeros_like(fake_out), fake_out)
    return real_loss + fake_loss

def generator_loss(fake_out):
    return cross_entropy(tf.ones_like(fake_out), fake_out)

在以上代码中,real_out是指向判别器输入原始图像得到的结果;fake_out是指向判别器输入生成图像得到的结果。
所以对于判别器的损失函数来说,real_out应该无限接近于1;fake_out应该无限接近于0。即我们想训练出的判别器应该对图片有很高的识别能力。
但对于生成器的损失函数来说,fake_out应该无限接近于1,也就是令判别器很难分辨出生成的图片。
【注】keras.losses.BinaryCrossentropy(from_logits=True)的用法可以参考:tensorflow2.0中损失函数tf.keras.losses.BinaryCrossentropy()的用法

分别定义生成器和判别器的优化函数

generator_opt = keras.optimizers.Adam(1e-4)
discriminator_opt = keras.optimizers.Adam(1e-4)

实例化生成器和判别器

generator = generator_model()
discriminator = discriminator_model()

定义训练过程

noise_dim = 100  # 即用100个随机数生成图片

def train_step(images):
    noise = tf.random.normal([BATCH_SIZE, noise_dim])
    
    with tf.GradientTape() as gen_tape, tf.GradientTape() as disc_tape:
        real_out = discriminator(images, training=True)
    
        gen_image = generator(noise, training=True)
        fake_out = discriminator(gen_image, training=True)
        
        gen_loss = generator_loss(fake_out)
        disc_loss = discriminator_loss(real_out, fake_out)
    gradient_gen = gen_tape.gradient(gen_loss, generator.trainable_variables)
    gradient_disc = disc_tape.gradient(disc_loss, discriminator.trainable_variables)
    generator_opt.apply_gradients(zip(gradient_gen, generator.trainable_variables))
    discriminator_opt.apply_gradients(zip(gradient_disc, discriminator.trainable_variables))

gradient_gen = gen_tape.gradient(gen_loss, generator.trainable_variables)表示计算gen_loss对于generator的所有变量的梯度。
generator_opt.apply_gradients(zip(gradient_gen, generator.trainable_variables))表示根据gradient_gen来优化generator的变量。
【注】梯度带及梯度更新的用法参考:Tensorflow中的梯度带(GradientTape)以及梯度更新

定义绘图函数

def generate_plot_image(gen_model, test_noise):
    pre_images = gen_model(test_noise, training=False)
    fig = plt.figure(figsize=(4, 4))
    for i in range(pre_images.shape[0]):
        plt.subplot(4, 4, i+1)
        plt.imshow((pre_images[i, :, :, 0] + 1)/2, cmap='gray')
        plt.axis('off')
    plt.show()

plt.imshow((pre_images[i, :, :, 0] + 1)/2, cmap=‘gray’)
这里是因为我们使用tanh激活函数之后会将结果限制在-1到1之间,而我们需要将其转化到0到1之间。

定义训练函数

EPOCHS = 100  # 训练100次
num_exp_to_generate = 16  # 生成16张图片
seed = tf.random.normal([num_exp_to_generate, noise_dim])  # 16组随机数组,每组含100个随机数,用来生成16张图片。

def train(dataset, epochs):
    for epoch in range(epochs):
        for image_batch in dataset:
            train_step(image_batch)
            print('.', end='')
        generate_plot_image(generator, seed)
train(datasets, EPOCHS)
  • 26
    点赞
  • 101
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 6
    评论
### 回答1: 可以使用TensorFlow 2.0实现GANGAN生成对抗网络的缩写,包含生成器和判别器两部分。生成生成伪造的数据样本,判别器判断其真伪。两个部分互相对抗,通过反复迭代学习提高生成生成真实样本的能力。在TensorFlow 2.0中可以使用Keras API来实现GAN。 ### 回答2: GAN生成对抗网络(Generative Adversarial Network)的英文缩写,是一种深度学习架构,由生成器和判别器两个模型组成。其中生成器的作用是产生类似于真实数据的数据,而判别器的作用则是将生成器产生的数据与真实数据进行比较并判断生成器产生的数据是否为真实的数据。如果生成器产生的数据被判别器判断为假的数据,则生成器需要进行调整,再次尝试产生类似于真实数据的数据,达到真实数据和生成器产生的数据在判别器中无法区分的目的。 利用TensorFlow 2.0实现GAN的步骤如下: 1. 导入相关模块 from tensorflow import keras from tensorflow.keras import layers import numpy as np 2. 定义生成器模型和判别器模型 生成器模型: def make_generator_model(): model = keras.Sequential() model.add(layers.Dense(7*7*256, use_bias=False, input_shape=(100,))) model.add(layers.BatchNormalization()) model.add(layers.LeakyReLU()) model.add(layers.Reshape((7, 7, 256))) assert model.output_shape == (None, 7, 7, 256) model.add(layers.Conv2DTranspose(128, (5, 5), strides=(1, 1), padding='same', use_bias=False)) assert model.output_shape == (None, 7, 7, 128) model.add(layers.BatchNormalization()) model.add(layers.LeakyReLU()) model.add(layers.Conv2DTranspose(64, (5, 5), strides=(2, 2), padding='same', use_bias=False)) assert model.output_shape == (None, 14, 14, 64) model.add(layers.BatchNormalization()) model.add(layers.LeakyReLU()) model.add(layers.Conv2DTranspose(1, (5, 5), strides=(2, 2), padding='same', use_bias=False, activation='tanh')) assert model.output_shape == (None, 28, 28, 1) return model 判别器模型: def make_discriminator_model(): model = keras.Sequential() model.add(layers.Conv2D(64, (5, 5), strides=(2, 2), padding='same', input_shape=[28, 28, 1])) model.add(layers.LeakyReLU()) model.add(layers.Dropout(0.3)) model.add(layers.Conv2D(128, (5, 5), strides=(2, 2), padding='same')) model.add(layers.LeakyReLU()) model.add(layers.Dropout(0.3)) model.add(layers.Flatten()) model.add(layers.Dense(1)) return model 3. 训练模型 设置超参数并编译模型: # 设置超参数 latent_dim = 100 generator = make_generator_model() discriminator = make_discriminator_model() # 设置优化器和损失函数 generator_optimizer = keras.optimizers.Adam(1e-4) discriminator_optimizer = keras.optimizers.Adam(1e-4) cross_entropy = keras.losses.BinaryCrossentropy(from_logits=True) # 编译模型 @tf.function def train_step(images): noise = tf.random.normal([BATCH_SIZE, latent_dim]) with tf.GradientTape() as gen_tape, tf.GradientTape() as disc_tape: generated_images = generator(noise, training=True) real_output = discriminator(images, training=True) fake_output = discriminator(generated_images, training=True) gen_loss = generator_loss(fake_output, cross_entropy) disc_loss = discriminator_loss(real_output, fake_output, cross_entropy) gradients_of_generator = gen_tape.gradient(gen_loss, generator.trainable_variables) gradients_of_discriminator = disc_tape.gradient(disc_loss, discriminator.trainable_variables) generator_optimizer.apply_gradients(zip(gradients_of_generator, generator.trainable_variables)) discriminator_optimizer.apply_gradients(zip(gradients_of_discriminator, discriminator.trainable_variables)) # 定义损失函数并训练模型 def discriminator_loss(real_output, fake_output, loss_object): real_loss = loss_object(tf.ones_like(real_output), real_output) fake_loss = loss_object(tf.zeros_like(fake_output), fake_output) total_loss = real_loss + fake_loss return total_loss def generator_loss(fake_output, loss_object): return loss_object(tf.ones_like(fake_output), fake_output) EPOCHS = 50 noise_dim = 100 num_examples_to_generate = 16 # 生成随机噪声 seed = tf.random.normal([num_examples_to_generate, noise_dim]) # 训练模型 def train(dataset, epochs): for epoch in range(epochs): for image_batch in dataset: train_step(image_batch) # 每训练一次输出一次结果图像 generate_and_save_images(generator, epoch + 1,seed) def generate_and_save_images(model, epoch, test_input): # 使用模型生成图像 predictions = model(test_input, training=False) # 构造结果图像 fig = plt.figure(figsize=(4, 4)) for i in range(predictions.shape[0]): plt.subplot(4, 4, i + 1) plt.imshow(predictions[i, :, :, 0] * 127.5 + 127.5, cmap='gray') plt.axis('off') # 保存图像 plt.savefig('image_at_epoch_{:04d}.png'.format(epoch)) plt.show() # 调用train函数进行训练模型 train(train_dataset, EPOCHS) 上述代码中,train函数接收训练数据集和训练轮数作为参数,每训练一次输出一次结果图像。generate_and_save_images函数用于生成结果图像并保存图像。 4. 验证结果 训练完成后,可以调用generate_and_save_images函数生成随训练次数增加的图像。结果图像应该类似于真实的图像,但是有些许不同之处。如果生成器产生的图像跟真实的图像在判别器中无法区分,则证明GAN模型的训练成功。 以上就是用TensorFlow 2.0实现GAN的详细步骤。GAN模型训练过程较为复杂,但是模型可以产生高质量的图像,因此具有广泛的应用前景。 ### 回答3: GAN(Generative Adversarial Networks)是一种深度学习模型,通过生成器(generator)和判别器(discriminator)两个模块博弈训练,生成器的目标是生成接近真实图像的样本,判别器则需要区分出这些样本是真实还是生成的。这个过程会不断迭代,直到生成器可以生成与真实图像无法区别的样本为止。 在TensorFlow 2.0实现GAN可以分为以下几个步骤: 1. 定义生成器(generator)和判别器(discriminator)两个模块 2. 定义损失函数,这里使用二元交叉熵损失函数 3. 定义优化器,通常使用Adam优化器 4. 对生成器和判别器进行训练,训练过程中需要每次从真实数据集中随机采样一批数据,再生成同等数量的假样本,将它们输入到判别器中进行训练 5. 使用训练好的生成生成图像 下面展示代码实现: 首先,导入TensorFlow和其他常用库 ```python import tensorflow as tf import numpy as np import matplotlib.pyplot as plt ``` 定义生成器和判别器模型 ```python def make_generator_model(): model = tf.keras.Sequential() model.add(tf.keras.layers.Dense(7*7*256, use_bias=False, input_shape=(100,))) model.add(tf.keras.layers.BatchNormalization()) model.add(tf.keras.layers.LeakyReLU()) model.add(tf.keras.layers.Reshape((7, 7, 256))) assert model.output_shape == (None, 7, 7, 256) model.add(tf.keras.layers.Conv2DTranspose(128, (5, 5), strides=(1, 1), padding='same', use_bias=False)) assert model.output_shape == (None, 7, 7, 128) model.add(tf.keras.layers.BatchNormalization()) model.add(tf.keras.layers.LeakyReLU()) model.add(tf.keras.layers.Conv2DTranspose(64, (5, 5), strides=(2, 2), padding='same', use_bias=False)) assert model.output_shape == (None, 14, 14, 64) model.add(tf.keras.layers.BatchNormalization()) model.add(tf.keras.layers.LeakyReLU()) model.add(tf.keras.layers.Conv2DTranspose(1, (5, 5), strides=(2, 2), padding='same', use_bias=False, activation='tanh')) assert model.output_shape == (None, 28, 28, 1) return model generator = make_generator_model() def make_discriminator_model(): model = tf.keras.Sequential() model.add(tf.keras.layers.Conv2D(64, (5, 5), strides=(2, 2), padding='same', input_shape=[28, 28, 1])) model.add(tf.keras.layers.LeakyReLU()) model.add(tf.keras.layers.Dropout(0.3)) model.add(tf.keras.layers.Conv2D(128, (5, 5), strides=(2, 2), padding='same')) model.add(tf.keras.layers.LeakyReLU()) model.add(tf.keras.layers.Dropout(0.3)) model.add(tf.keras.layers.Flatten()) model.add(tf.keras.layers.Dense(1)) return model discriminator = make_discriminator_model() ``` 定义损失函数和优化器 ```python cross_entropy = tf.keras.losses.BinaryCrossentropy(from_logits=True) def discriminator_loss(real_output, fake_output): real_loss = cross_entropy(tf.ones_like(real_output), real_output) fake_loss = cross_entropy(tf.zeros_like(fake_output), fake_output) total_loss = real_loss + fake_loss return total_loss def generator_loss(fake_output): return cross_entropy(tf.ones_like(fake_output), fake_output) generator_optimizer = tf.keras.optimizers.Adam(1e-4) discriminator_optimizer = tf.keras.optimizers.Adam(1e-4) ``` 定义训练函数 ```python @tf.function def train_step(images): noise = tf.random.normal([BATCH_SIZE, 100]) with tf.GradientTape() as gen_tape, tf.GradientTape() as disc_tape: generated_images = generator(noise, training=True) real_output = discriminator(images, training=True) fake_output = discriminator(generated_images, training=True) gen_loss = generator_loss(fake_output) disc_loss = discriminator_loss(real_output, fake_output) gradients_of_generator = gen_tape.gradient(gen_loss, generator.trainable_variables) gradients_of_discriminator = disc_tape.gradient(disc_loss, discriminator.trainable_variables) generator_optimizer.apply_gradients(zip(gradients_of_generator, generator.trainable_variables)) discriminator_optimizer.apply_gradients(zip(gradients_of_discriminator, discriminator.trainable_variables)) ``` 定义生成图像函数 ```python def generate_images(model, test_input): predictions = model(test_input, training=False) fig = plt.figure(figsize=(4, 4)) for i in range(predictions.shape[0]): plt.subplot(4, 4, i+1) plt.imshow(predictions[i, :, :, 0] * 127.5 + 127.5, cmap='gray') plt.axis('off') plt.show() ``` 开始训练 ```python EPOCHS = 100 BATCH_SIZE = 256 (train_images, train_labels), (_, _) = tf.keras.datasets.mnist.load_data() train_images = train_images.reshape(train_images.shape[0], 28, 28, 1).astype('float32') train_images = (train_images - 127.5) / 127.5 BUFFER_SIZE = 60000 train_dataset = tf.data.Dataset.from_tensor_slices(train_images).shuffle(BUFFER_SIZE).batch(BATCH_SIZE) for epoch in range(EPOCHS): for image_batch in train_dataset: train_step(image_batch) if epoch % 10 == 0: generate_images(generator, tf.random.normal([16, 100])) ``` 最终会得到生成生成的数字图像。
评论 6
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

cofisher

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值