CVPR 2020 | 几篇 image-to-image 论文速递

点击上方“机器学习与生成对抗网络”,关注"星标"

获取有趣、好玩的前沿干货!

 戳我,查看GAN的系列专辑~!

1 Fine-grained Image-to-Image Transformation towards Visual Recognition

  • 现有的图像转换方法主要集中在:如何在合成视觉上有让人感到自然的效果。而生成具有正确身份标签的图像具有挑战性,且相关探索少得多。

  • 在保持身份不变的情况下,对于姿势、视角或尺寸(缩放)具有较大变形的图像转换任务,更具挑战性,例如面部旋转和对象视图变形。

  • 本文的目标是对具有细粒度类别的图像进行转换,以合成保留输入图像身份的新图像,从而可以为后续的细粒度图像识别和少样本学习任务带来好处。

2 Reusing Discriminators for Encoding: Towards Unsupervised Image-to-Image Translation

  • 训练结束后,大多数当前的图像转换框架将丢弃鉴别器。

  • 本文通过重复使用鉴别器来对目标域的图像进行编码,提出NICE-GAN。与以前的方法相比,方法具有两个好处:首先,由于不需要独立的编码组件,因此结构更紧凑;其次,这种插入式编码器直接受对抗损失训练,如果应用了多尺度鉴别器,则其信息量更大,训练更有效。- 代码开源:https://github.com/alpc91/NICE-GAN-pytorch

3 Domain Adaptive Image-to-image Translation

  • 不成对训练下的图像转换image-to-image translation (I2I)在各种应用中都取得了巨大的成功。但其泛化能力仍然是一个悬而未决的问题。

  • 本文证明了现有的I2I模型不能很好地推广到训练域之外的样本,首先,当测试样本超出其有效输入域时,I2I模型可能无法正常工作。其次,如果预期输出与模型训练的结果相距甚远,则结果不可靠。

  • 为了解决这些问题,提出了一种域自适应图像到图像转换(DAI2I)框架,该框架使I2I模型适用于域外样本。框架引入了两个子模块-一个将测试样本映射到I2I模型的有效输入域,另一个将I2I模型的输出转换为预期结果。

4 DUNIT: Detection-based Unsupervised Image-to-Image Translation

  • 大多数图像转换方法将图像视为一个整体,这使得它们生成的效果内容丰富,却不够逼真现实。

  • 本文介绍了一种基于检测的无监督图像到图像转换(DUNIT)方法,该方法在转换过程中明确考虑了对象实例。方法为全局图像和实例分别提取各自表示,然后再将它们融合。

5 High-Resolution Daytime Translation Without Domain Labels

  • 对高分辨率照片中的白天变化进行建模,例如在白天,夜晚或黎明的典型光照下重新渲染同一场景,是一项具有挑战性的图像处理任务。- 本文为此任务提供了高分辨率的白天转换(HiDT)模型。HiDT结合了生成式图像转换模型和新的上采样方案,后者可以高分辨率应用于图像转换。

  • 项目:https://saic-mdal.github.io/HiDT/

获取方式 | 扫下面码添加运营小妹,回复 cvpr图像转换(建议选中长按复制,如已添加直接私聊~),即可获取pdf。

更多分享:

CVPR2020 GAN论文整理

拆解组新的GAN:解耦表征MixNMatch

人脸图像GAN,今如何?(附多篇论文下载)

《基于深度学习的表面缺陷检测方法综述》

《零样本图像分类综述: 十年进展》

《基于深度神经网络的少样本学习综述》

附下载 | 《可解释的机器学习》中文版

附下载 |《TensorFlow 2.0 深度学习算法实战》

附下载 |《计算机视觉中的数学方法》分享

  • 1
    点赞
  • 11
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值