自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+

SCU-JJkinging的博客

github地址: https://github.com/SCU-JJkinging

  • 博客(13)
  • 资源 (1)
  • 收藏
  • 关注

原创 (六)starGAN论文笔记与实战

三、完整代码import argparseimport torchimport torchvisionimport os import numpy as npimport timeimport itertoolsimport datetimeimport torchvision.transforms as transformsfrom torchvision.utils import save_imagefrom torch.utils.data import DataLoader,

2020-07-31 21:05:02 1380 1

原创 pytorch中expand()和repeat()的区别

二者都是用来扩展某维的数据的尺寸一、expand()       返回当前张量在某维扩展更大后的张量。扩展(expand)张量不会分配新的内存,只是在存在的张量上创建一个新的视图(view),只能扩展为1的维度:a = torch.tensor([1,2,3,4])print('扩展前a的shape:', a.shape)a = a.expand(8, 4)print('扩展后a的shape:', a.shape)print

2020-07-30 20:26:22 970

原创 (五)cycleGAN论文笔记与实战

一、cycleGAN架构与目标函数在cycleGAN中有两个生成器和两个判别器,核心思想就是循环一致性,原始输入 xxx 通过生成器 G 获得图像 Y^\hat YY^, 然后再通过生成器 F 获得 x^\hat xx^ ,就是要尽可能让 xxx ≈\approx≈ x^\hat xx^, 这也引出了循环一致性损失。其分为两种:前向循环一致性损失:x→G(x)→F(G(x))≈x后向循环一致性损失:y→F(y)→G(F(y))≈y公式表示为:Lcyc(G,F)L_{cyc}(G, F)Lcy

2020-07-28 15:38:21 1399 3

原创 (四)pix2pixGAN论文笔记与实战

一、论文要点1.图像建模的结构化损失        图像到图像的翻译问题通常是根据像素分类或回归来解决的。这些公式将输出空间视为“非结构化”,即在给定输入图像的情况下,每个输出像素被视为与所有其他像素有条件地独立。而cGANs( conditional-GAN)的不同之处在于学习结构化损失,并且理论上可以惩罚输出和目标之间的任何可能结构。2.损失函数一般的 cGANs 的目标函数如下: xxx是条件,yyy=G(x,zx

2020-07-26 21:38:03 2341 4

原创 BN、LN、IN、GN的区别

一、Batch Normalization       卷积神经网络的出现,网络参数量大大减低,使得几十层的深层网络成为可能。然而,在残差网络出现之前,网络的加深使得网络训练变得非常不稳定,甚至出现网络长时间不更新甚至不收敛的现象,同时网络对超参数比较敏感,超参数的微量扰动也会导致网络的训练轨迹完全改变。       2015年,Google研究人员SergeyIo

2020-07-24 15:53:09 3826 3

原创 (三)WGAN和WGAN-GP解读与项目实战

(三)Wasserstein-GAN一、传统的GAN的缺陷1.超参数敏感       超参数敏感是指网络的结构设定、学习率、初始化状态等超参数对网络的训练过程影响较大,微量的超参数调整将可能导致网络的训练结果截然不同。如图 13.15 所示,图(a)为 GAN 模型良好训练得到的生成样本,图(b)中的网络由于没有采用 Batch Normalization层等设置,导致 GAN 网络训练不稳定,无法收敛,生成的样本与真实样本差距非常

2020-07-21 22:49:34 5876 2

原创 Variable里只有传入浮点数才能求梯度

2020-07-21 17:17:18 150

原创 torch.mul()、torch.mm()、torch.dot()和torch.mv()之间的区别

torch.mul()是矩阵的点乘,即对应的位相乘,要求shape一样torch.mm()是矩阵正常的矩阵相乘,(a, b)* ( b, c ) = ( a, c )

2020-07-21 15:50:33 16849

转载 Pytorch autograd、backward详解

https://www.cnblogs.com/marsggbo/p/11549631.html

2020-07-21 15:15:54 168

转载 WGAN两篇论文的中文详细介绍

作者:郑华滨链接:https://zhuanlan.zhihu.com/p/25071913来源:知乎著作权归作者所有。商业转载请联系作者获得授权,非商业转载请注明出处。 在GAN的相关研究如火如荼甚至可以说是泛滥的今天,一篇新鲜出炉的arXiv论文《Wassertein GAN》却在Reddit的Machine L...

2020-07-20 16:56:28 2225

原创 (二)CGAN实战

(二)CGAN实战-按条件生成MNIST手写数字一、CGAN论文要点普通GAN的目标函数:CGAN目标函数:CGAN网络结构示例:二、MNIST实战思想我主要是这样想的:  首先是训练判别器,通过把手写数字图片(32*32)和其对应的标签(经过嵌入层,将该数字对应的标签嵌入成10维向量)一起输入到判别器作为真实图片输入;将随机的latent vector (100维) 加上随机的标签一同输入生成器输出fake图片,再将fake图片连同之前输入生成器的标签一同输入判别器,作为判别器评价

2020-07-19 11:12:08 936 1

原创 (一)DCGAN实战

(一)DCGAN实战一、DCGAN论文要点二、Generator架构三、完整代码(详细注释)四、遇到的问题及解决一、DCGAN论文要点通过跨步卷积层(例如:stride= 2)代替池化层(例如:最大池化层)取消全连接层,用全局平均池化层代替(在判别器的最后一层)所有层的输出都用BatchNormalization做归一化生成器使用转置卷积层,激活函数使用ReLU函数,但最后一层输出层使用Tanh激活函数;判别器使用卷积层,激活函数使用LeakyReLU, the slope of the lea

2020-07-17 19:07:44 1709 1

原创 Pytorch中使用tensorboard可视化不显示的问题

Pytorch中使用tensorboard可视化不显示的问题问题来源解决问题来源最近刚学习pytorch,看官方文档学习到了tensorboard可视化,但是照着代码写却不能得到图片显示from torch.utils.tensorboard import SummaryWriter# default `log_dir` is "runs" - we'll be more specific herewriter = SummaryWriter('runs/fashion_mnist_experim

2020-07-15 11:36:15 4074 1

4-DCGAN实战.ipynb

一、DCGAN论文要点 通过跨步卷积层(例如:stride= 2)代替池化层(例如:最大池化层) 取消全连接层,用全局平均池化层代替(在判别器的最后一层) 所有层的输出都用BatchNormalization做归一化 生成器使用转置卷积层,激活函数使用ReLU函数,但最后一层输出层使用Tanh激活函数;判别器使用卷积层,激活函数使用LeakyReLU, the slope of the leak was set to 0.2 in all models. All weights were initialized from a zero-centered Normal distribution with standard deviation 0.02. (所有权重均从零中心正态分布初始化,标准偏差为0.02),Adam优化器的beta1值设置为0.5,学习率设置为0.0002,所有模型均采用小批量随机梯度下降(SGD)训练,最小批量为128。

2020-07-20

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除