GAN的pytorch版本(线性网络)

import torch
import torchvision
from torchvision import transforms
from torchvision.utils import save_image
from torch import nn
from torch.autograd import Variable
from torch import optim
import os

transform = transforms.Compose([
    transforms.ToTensor(),
    transforms.Normalize(mean=(0.5,0.5,0.5),std=(0.5,0.5,0.5))
])

mnist = torchvision.datasets.MNIST(root='./data',train=True,download=False,transform=transform)
dataloader = torch.utils.data.DataLoader(mnist,batch_size=100,shuffle=True)

class Dnet(nn.Module):
    def __init__(self):
        super(Dnet,self).__init__()
        self.network = nn.Sequential(
            nn.Linear(784,256),
            nn.LeakyReLU(),
            nn.Linear(256,1),
            nn.Sigmoid()
        )
    def forward(self,x):
        return self.network(x)
class Gnet(nn.Module):
    def __init__(self):
        super(Gnet,self).__init__()
        self.network = nn.Sequential(
            nn.Linear(128,256),
            nn.ReLU(),
            nn.Linear(256,784),
            nn.Tanh()
        )
    def forward(self,x):
        return self.network(x)

def to_img(x):
    y = (x+1)*0.5
    y = y.clamp(0,1)
    y = y.view(-1,1,28,28)
    return y

class Net:
    def __init__(self):
        self.dnet = Dnet()
        self.gnet = Gnet()
        self.dnet = self.dnet.cuda()
        self.gnet = self.gnet.cuda()
        self.Loss = nn.BCELoss()
        self.d_optimizer = optim.Adam(self.dnet.parameters(), lr=0.0002)
        self.g_optimizer = optim.Adam(self.gnet.parameters(), lr=0.0002)
    def forward(self,real_x,fack_x):
        self.real_d_out = self.dnet(real_x)
        g_out = self.gnet(fack_x)
        self.g_d_out = net.dnet(g_out)
    def backward(self,pos_y,nega_y,fack_xs):
        d_out_loss = self.Loss(self.real_d_out, pos_y)
        g_d_loss = self.Loss(self.g_d_out, nega_y)
        self.d_loss = d_out_loss + g_d_loss
        self.d_optimizer.zero_grad()
        self.d_loss.backward()
        self.d_optimizer.step()
        self.fack_g_out = self.gnet(fack_xs)
        fack_g_d_out = self.dnet(self.fack_g_out)
        self.g_loss = self.Loss(fack_g_d_out, pos_y)
        self.g_optimizer.zero_grad()
        self.g_loss.backward()
        self.g_optimizer.step()

if __name__ == '__main__':
    if not os.path.exists('img_'):
        os.mkdir('img_')
    net = Net()

    for i in range(100):
        for x,y in dataloader:
            x = x.view(x.size(0),-1)
            real_x = Variable(x).cuda()
            fack_x = Variable(torch.randn(100,128)).cuda()
            pos_y = Variable(torch.ones(100)).cuda()
            nega_y = Variable(torch.zeros(100)).cuda()
            fack_xs = Variable(torch.randn(100, 128)).cuda()
            net.forward(real_x,fack_x)
            net.backward(pos_y,nega_y,fack_xs)
            img = to_img(net.fack_g_out.data)
            print(net.d_loss.item(),net.g_loss.item())
            save_image(img,'./img/fake_images-{}.png'.format(i+1))

 

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
以下是基于PyTorch编写的选择GAN生成器网络中的噪声为自定义数据噪声的代码示例: ```python import torch import torch.nn as nn class Generator(nn.Module): def __init__(self, noise_size, output_size): super(Generator, self).__init__() # 定义生成器网络结构 self.fc1 = nn.Linear(noise_size, 128) self.fc2 = nn.Linear(128, 256) self.fc3 = nn.Linear(256, 512) self.fc4 = nn.Linear(512, output_size) def forward(self, z): # 定义生成器网络的前向传播过程 # 将噪声向量z传入全连接层,进行线性变换和激活函数处理 out = torch.relu(self.fc1(z)) out = torch.relu(self.fc2(out)) out = torch.relu(self.fc3(out)) out = torch.sigmoid(self.fc4(out)) return out # 自定义数据噪声 noise = torch.randn(1, noise_size) # 创建生成器网络实例 generator = Generator(noise_size, output_size) # 将自定义的数据噪声传入生成器网络 output = generator(noise) # 查看生成器网络输出 print(output) ``` 在这段代码中,我们首先定义了一个Generator类,这个类继承自nn.Module类,表示生成器网络。在这个类中,我们定义了生成器网络的结构和前向传播过程。其中,noise_size表示噪声向量的维度,output_size表示生成器网络输出的数据维度。在forward函数中,我们将噪声向量z传入全连接层,进行线性变换和激活函数处理,最终得到生成器网络的输出。 接着,我们自定义了一个数据噪声noise,这个噪声向量的维度与生成器网络中噪声向量的维度相同。然后,我们创建了一个生成器网络实例generator,并将自定义的数据噪声传入网络中,得到生成器网络的输出output。 最后,我们打印了生成器网络的输出,可以看到输出结果是一个维度为output_size的数据。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值