CVPR 2023 | 统一框架MAGE:表征学习超MAE,无监督图像生成超越Latent Diffusion

aab997dd4585f0ef2c3ed07bd69c3cf4.gif

©作者 | 机器之心编辑部

来源 | 机器之心

在一篇 CVPR 2023 论文中,来自 MIT 和谷歌的研究人员提出了一种全新的框架 MAGE,同时在图像识别和生成两大任务上实现了 SOTA。

识别和生成是人工智能领域中的两大核心任务,如果能将二者合并到一个统一的系统中,这两个任务应该能实现互补。事实上,在自然语言处理中,像 BERT [1] 这样的模型不仅能够生成高质量的文本,还能够提取文本中的特征。

然而,在计算机视觉领域,目前的图像生成模型和识别模型大多是分开进行训练,没有充分利用这两个任务的协同作用。这主要是由于图像生成和图像识别的模型通常具有本质上的结构差异:图像生成的输入是低维度的特征或噪声,而输出是高维度的原始图像;与之相反,图像识别的输入是高维度的原始图像,而输出是低维度的特征。

最近,来自 MIT 和 Google Research 的研究人员提出了一种基于图像语义符掩码的表征学习方法,首次在一个统一的框架中实现了图像生成和表征学习,并在多个数据集上取得了 SOTA 表现。研究论文已被 CVPR 2023 接收,相关代码与预训练模型已开源。

c175bb6b5dbce1e7194c1e5c6c10b2c2.png

论文标题:

MAGE: MAsked Generative Encoder to Unify Representation Learning and Image Synthesis

论文链接:

https://arxiv.org/abs/2211.09117

代码地址:

https://github.com/LTH14/mage

在 CVPR 2022 上,MAE [2] 提出了一种基于图像掩码(MIM)的表征学习方法,并在多个子任务上取得了非常好的效果。在高达 75% 的掩码率下,MAE 可以重构出与原图语义十分贴合的图像,并借此让网络能够自监督地学习图像中的特征。


然而,如图 1 所示, MAE 重建的图像虽然具有与原始图像相似的语义信息,但会出现严重的模糊与失真问题。类似的问题也出现在所有基于 MIM 的表征学习方法中。同时,目前的生成模型,不管是扩散模型还是 GAN,都缺乏提取高质量图像特征的能力。

f40fd3d37bf44f1af1ee7b9b9dda07c1.png

▲ 图1. MAE 与 MAGE 重构对比

034c0013f66492b807a347089504c7b4.png

方法概述

针对上述问题,本文作者提出了 MAGE(Masked Generative Encoder),首次实现了统一的图像生成和特征提取模型。与MIM直接作用于图像的掩码方法不同,MAGE 提出了基于图像语义符的 masked image token modeling 方法。

如图所示,MAGE 首先使用 VQGAN [3] 编码器将原始图像转换为离散的语义符。之后,MAGE 对其进行随机掩码,并使用基于 transformer 的 encoder-decoder 结构对掩码进行重构,重构后的语义符可以通过 VQGAN 解码器生成原始图像。通过在训练中使用不同的掩码率,MAGE 可以同时进行生成模型(接近 100% 掩码率)和表征学习(50%-80% 掩码率)的训练。

如图 1 所示,MAGE 重建出的图像不仅具有与原始图像一致的语义信息,还能够同时保证生成图像的多样性与真实性。

544065d7b18532e80488a226f0ea7fa0.png

▲ 图2. MAGE结构图

7c146e58784366d3d5010c6edd924c70.png

实验结果

MAGE 在多个图像生成与图像识别任务上都达到或超过了 SOTA。

8a0227ec7ca50b1ce11ee0c7534dd4c3.jpeg

在 ImageNet 的无监督图像生成任务中,MAGE 的 FID 从之前的 > 20 降至 7.04,甚至达到了有监督图像生成的水准(有监督 Latent Diffusion 在 ImageNet 上的 FID 为 3.60):

98795ef77d6c5976b82b40e85be94a9d.png

aba6962536deb8228292b154d37fcac1.png

▲ 图3. MAGE无监督图像生成样例

MAGE 还能够进行各类图像编辑工作,包括 image inpainting、outpainting、uncropping:

1c6ef008e982748cf7926d6073983f9b.png

a25b23a9dd9a9f76fd5c3c759222b132.png

2b827b612e3c4bf7b23b1c585f8b8b59.png

6a8294f31ebfb2675119ef423a059b2b.png

▲ 图4. MAGE图像编辑样例

在表征学习方面,MAGE 在 ImageNet linear probing、少样本学习、迁移学习等任务中,相较于目前的 MIM 方法有了大幅提升,并且可以达到或超过目前最优的自监督学习方法的水平。

2d6e60896861ea055eab41b113bfcc6d.png

39d203f7f8e2c0de2a614c4ec9b07b3c.png

af4152aaa9f522f65b50375130991a15.png

结语

本文旨在将图像生成与表征学习统一起来。为此,本文作者提出了 MAGE,一种基于图像语义符掩码的自监督学习框架。该框架简洁、高效,并首次在图像生成和表征学习上都达到或超越了 SOTA 的表现。感兴趣的读者可以查看论文原文,以了解更多研究细节。

outside_default.png

参考文献

outside_default.png

[1] Jacob Devlin, Ming-Wei Chang, Kenton Lee, and Kristina Toutanova. Bert: Pre-training of deep bidirectional transformers for language understanding. arXiv preprint arXiv:1810.04805, 2018.

[2] Kaiming He, Xinlei Chen, Saining Xie, Yanghao Li, Piotr Dollar, and Ross Girshick. Masked autoencoders are scalable ´ vision learners. In Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition, pages 16000– 16009, 2022.

[3] Patrick Esser, Robin Rombach, and Bjorn Ommer. Taming transformers for high-resolution image synthesis. In Proceedings of the IEEE/CVF conference on computer vision and pattern recognition, pages 12873–12883, 2021.

更多阅读

f5f00ee4e7818db20ba6552b0b0cd381.png

7e96b1c98688e2ab110cc900dd68affb.png

05a3eeb118f57ff3fd7f675c72900ece.png

1209a590676dfd230fe0dc5c79a7e0c9.gif

#投 稿 通 道#

 让你的文字被更多人看到 

如何才能让更多的优质内容以更短路径到达读者群体,缩短读者寻找优质内容的成本呢?答案就是:你不认识的人。

总有一些你不认识的人,知道你想知道的东西。PaperWeekly 或许可以成为一座桥梁,促使不同背景、不同方向的学者和学术灵感相互碰撞,迸发出更多的可能性。 

PaperWeekly 鼓励高校实验室或个人,在我们的平台上分享各类优质内容,可以是最新论文解读,也可以是学术热点剖析科研心得竞赛经验讲解等。我们的目的只有一个,让知识真正流动起来。

📝 稿件基本要求:

• 文章确系个人原创作品,未曾在公开渠道发表,如为其他平台已发表或待发表的文章,请明确标注 

• 稿件建议以 markdown 格式撰写,文中配图以附件形式发送,要求图片清晰,无版权问题

• PaperWeekly 尊重原作者署名权,并将为每篇被采纳的原创首发稿件,提供业内具有竞争力稿酬,具体依据文章阅读量和文章质量阶梯制结算

📬 投稿通道:

• 投稿邮箱:hr@paperweekly.site 

• 来稿请备注即时联系方式(微信),以便我们在稿件选用的第一时间联系作者

• 您也可以直接添加小编微信(pwbot02)快速投稿,备注:姓名-投稿

4d127d2abc039a291dcab9955f32e708.png

△长按添加PaperWeekly小编

🔍

现在,在「知乎」也能找到我们了

进入知乎首页搜索「PaperWeekly」

点击「关注」订阅我们的专栏吧

·

·

·

ac7f48f4aa18879e5a7e4a5250e241d9.jpeg

  • 3
    点赞
  • 13
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
监督图像去噪是一种通过自动合成噪声图像对进行训练的方法,用于消除图像中的噪声并恢复原始图像的技术。在CVPR2023会议中,发表了一篇名为"Learning A Sparse Transformer Network for Effective Image Deraining"的论文,该论文提出了一种基于稀疏Transformer网络的自监督图像去噪方法。 图像去噪是一个基本的低级图像处理任务,其目标是消除噪声并恢复清晰的图像。而自监督图像去噪方法使用自动生成的噪声图像对进行训练,可以在没有人工标签的情况下学习图像去噪模型。 深度学习已经成为图像去噪的主流方法,特别是Transformer模型的出现,它在各种图像任务上取得了显著的进展。然而,现有的基于深度学习的方法在噪声分布不同的情况下可能缺乏泛化能力。例如,在高斯噪声上训练的模型可能在其他噪声分布上的测试中表现不佳。 因此,CVPR2023的这篇论文提出了一种基于稀疏Transformer网络的自监督图像去噪方法,通过学习噪声图像对进行训练,可以有效地消除图像中的噪声并恢复原始图像的质量。这种方法具有很大的潜力在实际图像处理任务中得到应用。<span class="em">1</span><span class="em">2</span><span class="em">3</span> #### 引用[.reference_title] - *1* *3* [CVPR 2023 | 去雨去噪去模糊,图像low-level任务,视觉AIGC系列](https://blog.csdn.net/lgzlgz3102/article/details/130939564)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v93^chatsearchT3_2"}}] [.reference_item style="max-width: 50%"] - *2* [【论文速递】CVPR2022-Blind2Unblind:具有可见盲点的自监督图像去噪](https://blog.csdn.net/weixin_47525542/article/details/128780908)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v93^chatsearchT3_2"}}] [.reference_item style="max-width: 50%"] [ .reference_list ]

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值