GAN
文章平均质量分 89
ybacm
这个作者很懒,什么都没留下…
展开
-
CVPR 2021 | Few-shot Image Generation via Cross-domain Correspondence 阅读笔记 & 部分翻译
作者使用 cross-domain distance consistency 来维持源域中的多样性(使用相同的 latent code 来做损失);使用 $D_{img}$ 来对目标训练集中采样的图像做完整的 image-level 损失(通过固定 k 个随机点),使用 $D_{patch}$ 来对目标训练集外采样的图像做 patch-level 损失,这样会减少了对应有的多样性的惩罚,还提升了生成图像的真实度。原创 2021-12-18 20:37:41 · 1417 阅读 · 0 评论 -
CVPR 2020 | MineGAN: Effective Knowledge Transfer From GANs to Target Domains With Few Images 阅读笔记
该论文在生成器的输入前增加了一个 miner 网络,它的作用是将原始分布 transfer 到目标空间分布,并将 transfer 分成了两阶段,第一阶段固定生成器,训练 miner 和判别器;第二阶段将所有的参数(包含生成器)一起进行微调。原创 2021-12-10 11:35:41 · 2477 阅读 · 0 评论 -
NIPS 2020 | Few-shot Image Generation with Elastic Weight Consolidation 阅读笔记&部分翻译
作者提出当进行 transfer 时不应该将所有的权重参数一视同仁,然后讨论了迁移前后网络中各层的权重变化率,证明有一些重要的参数是不需要大幅度改变的,最后在损失函数中添加了 EWC 损失,做到了不同参数不同对待,而且 EWC 损失不需要学习,效果很好。原创 2021-12-10 11:21:41 · 3086 阅读 · 0 评论 -
ECCV 2018 | Transferring GANs: generating images from limited data 阅读笔记(部分翻译)
该论文将 fine-tuning 与 GAN 进行了一个结合,是这个方面的开篇之作,然后做了一些关于 transfer 影响因素的实验讨论。原创 2021-12-07 23:13:20 · 1264 阅读 · 0 评论 -
CVPR 2018 | Generative Image Inpainting with Contextual Attention 阅读笔记(翻译)
Generative Image Inpainting with Contextual Attention作者:Jiahui Yu1^11 Zhe Lin2^22 Jimei Yang2^22 Xiaohui Shen2^22 Xin Lu2^22 Thomas S. Huang1^11单位:1^11University of Illinois at Urbana-Champaign 2^22Adobe Research会议:CVPR 2018Abstract最近的基于深度学习原创 2021-08-20 19:20:57 · 889 阅读 · 0 评论 -
ICLR2021 | USING LATENT SPACE REGRESSION TO ANALYZE 阅读笔记(翻译)
USING LATENT SPACE REGRESSION TO ANALYZE AND LEVERAGE COMPOSITIONALITY IN GANS作者:Lucy Chai, Jonas Wulff & Phillip Isola单位:MIT CSAIL, Cambridge, MA 02139, USA邮箱:{lrchai,wulff,phillipi}@mit.edu会议:ICLR 2021项目地址:https://chail.github.io/latent-composit原创 2021-08-15 16:50:24 · 340 阅读 · 0 评论 -
深入浅出的Wasserstein GAN
在此Mark一下对经典WGAN进行了非常直观描述的一篇知乎文章:标题:令人拍案叫绝的Wasserstein GAN网址:https://zhuanlan.zhihu.com/p/25071913作者:郑华滨 SenseTime(商汤科技)该文章很好的讲述了WGAN的由来,过程和总结。以下是对该文章的摘取。WGAN中做了很多的数学推理,最终得到了以下修改:判别器最后一层去掉sigmoid生成器和判别器的loss不取log每次更新判别器的参数之后把它们的绝对值截断到不超过一个固定常数c不要用原创 2021-08-12 22:06:53 · 542 阅读 · 0 评论 -
CVPR 2020 | Editing in Style: Uncovering the Local Semantics of GANs 阅读笔记(部分翻译)
Editing in Style: Uncovering the Local Semantics of GANs作者:Edo Collins, Sabine Süsstrunk{School of Computer and Communication Sciences, EPFL, Switzerland}, Raja Bala, Bob Price{Interactive and Analytics Lab, Palo Alto Research Center, Palo Alto, CA}会议:CV原创 2021-06-02 17:31:20 · 957 阅读 · 1 评论 -
Pix2PixHD 阅读笔记(翻译)
High-Resolution Image Synthesis and Semantic Manipulation with Conditional GANs作者:Ting-Chun Wang{NVIDIA}, Ming-Y u Liu{NVIDIA}, Jun-Yan Zhu{UC Berkeley}, Andrew Tao{NVIDIA}, Jan Kautz{NVIDIA}, Bryan Catanzaro{NVIDIA}会议:CVPR2018论文链接:https://arxiv.org/abs原创 2021-03-31 11:41:03 · 1104 阅读 · 0 评论 -
StyleGAN 阅读笔记(翻译)
A Style-Based Generator Architecture for Generative Adversarial Networks作者:Tero Karras{NVIDIA}, Samuli Laine{NVIDIA}, Timo Aila{NVIDIA}会议:CVPR 2019以下是个人做的大致翻译(不是全部的翻译)或段落总结,如果直接想看文章总结,这个网址的内容写的很好 https://zhuanlan.zhihu.com/p/63230738。Abstract我们提出的新结构可原创 2021-03-10 09:16:53 · 1111 阅读 · 0 评论 -
StackGAN 阅读笔记
StackGAN: Text to Photo-realistic Image Synthesis with Stacked Generative Adversarial Networks 阅读笔记Abstract我们通过一个 粗糙-细化 过程将困难的问题分解成了可管理的子问题。Stage-I的GAN根据文字描述粗糙的生成了原始的形状和颜色,获得了Stage-I的低分辨率图片。Stage-II的GAN以Stage-I的结果图片和文字描述为输出,生成了带有逼真细节的高分辨率图片。它能够纠正Stage-I的原创 2021-02-02 11:40:57 · 770 阅读 · 3 评论