从零开始阅读U-GAT-IT——新型无监督图像到图像转换【飞浆论文复现】

从零开始阅读U-GAT-IT——新型无监督图像到图像转换

1. “创作背景”

参与了百度飞浆的论文复现营,看了老师们挑选的五篇论文,根据自己全小白的水平,果断挑选了这一篇看起来最简单的
这是自己认真阅读的第一篇科技类论文,也是第一次读全英的论文,先不说论文复现了,能不能看懂都是个很大的问题。而且这篇论文是关于GAN的,而本人对于深度学习的了解,仅仅是知道啥是学习率的水平,所以没看一个概念,都是崭新的考验。这就是之所以说“从零开始阅读”的原因,以及,以下的论文分析解读仅代表个人观点和理解,不保证准确性(很有可能会有错误表述)

2. 论文概况

(1)论文标题

U-GAT-IT: Unsupervised Generative Attentional Networks with Adaptive Layer-Instance Normalization for Image-to-Image Translation

(2)前人研究

这篇论文的基础是CycleGAN,并且通过与CycleGAN、UNIT、MUNIT、DRIT、AGGAN 等的网络进行对比,得出了U-GAT-IT 性能更佳的结论。之前的网络存在的问题有两个方面:能较好的迁移整体风格,但是对于细节学习不到位,当图像纹理发生较大变化时,网络效果差(LN);能较好的学习到图像的纹理特征,但是对于风格的学习较差(IN)

(3)论文研究

论文中,作者提出了一种新的正则化方式 AdaLIN,通过调整参数 β \beta β,兼得了LN与IN的优点在这里插入图片描述
网络结构如下:
(本人不太看得懂)
相较于以往的网络,这里加入了新的Attention模块,这个模块的功能是什么呢?顾名思义就是能让网络“注意”到图像的重点,知道哪个地方需要重点关注,哪些地方可以减少关注,这样就能在更好的保持纹理特征,同时又能在一定程度上获得风格。

同时,由于是基于CycleGAN实现的,所以有两个GAN网络,要将这两个GAN结合起来,就需要设计好损失函数,论文中使用了四种损失函数(对于小白来说,第一次看到这些公式真头大,查了好久资料才大概看懂)
在这里插入图片描述

3. 读后感

事实上好像也没从论文里看出啥,因为对前人的研究不了解,对于GAN这一领域的涉足也是为zero。读完一篇论文,最大的成就感就是第一次阅读英文论文,并且大致看明白了大致的意思。接下来的工作就是复现论文,之所以参与论文复现,并不是觉得自己可以把论文复现出来,只是想借此机会,逼着自己去学习更多的知识。
所以是为了过程,强求结果(当然如果有结果更好哈哈哈哈哈哈)

(复现论文的过程中可能会继续完善这篇文章)

  • 1
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 1
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值