AI学习记录 - 对抗性神经网络

有用点赞哦

学习机器学习到一定程度之后,一般会先看他的损失函数是什么,看他的训练集是什么,训练集是什么,代表我使用模型的时候,输入是什么类型的数据。

对抗神经网络其实可以这样子理解,网上一直说生成器和判别器的概念,没有触及到本质。

我有一种看法:假如当前场景是输入模糊图片,然后输出高质量图片。当判别器和生成器本来就是一个模型,在不把判别器生成器拆开的时候,我输入一张图片,这个模型输出的是0和1,那这个整体模型的作用就是判断这个图片是不是高清图片,训练集是【模糊图片,0】,【高清图片,1】,通过这种方式进行反向传播。但是现在的目的不是判断他是不是高质量图片,而是要他给我生成高质量图片,所以要在中间切开变成两份,前一份模型修改一下输出,让他输出的是一张图片的格式矩阵,后一份模型修改一下输入,让他输入的是一张图片的格式矩阵,就像个协议一样前一半后一半规格一样就可以接起来,你可能会说我不改变他的输入输出本来的规格也一样啊,但是我说了规格变成一张图片,那人不就是看懂了吗,原来中间切开的输出,人看不懂啊,也不符合我要实现输入模糊图片,输出高清图片的目的。

判别器:判别器是单独训练

训练集就是【真实图片, 1】,【虚假图片, 0】,一个批次有2种训练集,大概如下

第一种:【【真实图片, 1】,【真实图片, 1】,【真实图片, 1】,【真实图片, 1】】
第二种:【【虚假图片, 0】,【虚假图片, 0】,【虚假图片, 0】,【虚假图片, 0】】

所以会产生两种损失:

真实图片的损失
	discriminator.train()
	d_loss1 = discriminator(images, real_targets)
利用生成器生成图片,然后丢到判别器
	 with torch.no_grad():
	     generated_images = generator(batch_size)
	
	 # Loss with generated image inputs and fake_targets as labels
	 d_loss2 = discriminator(generated_images, fake_targets)
两种损失加起来,然后反向传播
	d_loss = d_loss1 + d_loss2
	d_optimizer.zero_grad()
	d_loss.backward()
	d_optimizer.step()

生成器:生成器的训练是将 生成器 和 判别器 整合一起训练,我还没完全理解,后续再看看

反向传播的过程,使用损失值对生成器的参数进行反向传播,更新生成器的权重。判别器的权重在这一步保持不变。

单独创建两个优化器,用哪个优化器,就更新哪个模型的权重,这里有两个模型
# Optimizers
	g_optimizer = torch.optim.Adam(generator.parameters(), lr=g_lr)
	d_optimizer = torch.optim.Adam(discriminator.parameters(), lr=d_lr)
单独更新
    # Generate images in train mode
    generator.train()
    generated_images = generator(batch_size)

    # Loss with generated image inputs and real_targets as labels
    g_loss = discriminator(generated_images, real_targets)

    # Optimizer updates the generator parameters
    g_optimizer.zero_grad()
    g_loss.backward()
    g_optimizer.step()  # 更新生成器权重
  • 1
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值