【cvpr2022】TransWeather: Transformer-based Restoration of Images Degraded by Adverse Weather Conditio

参考资料

        在这项工作中,我们提出了一个称为 TransWeather 的单编码器-单解码器变压器网络,以一次性解决所有恶劣天气去除问题。我们没有使用多个编码器,而是在转换器解码器中引入天气类型查询来学习任务(图 1 (c))。

在这里,多头自注意力机制将天气类型查询作为输入,并将其与从 transformer 编码器提取的特征中获取的键和值相匹配。这些天气类型嵌入与网络一起学习,以理解和调整图像中出现的天气退化类型。

使用卷积块将解码后的特征和从编码器获得的分层特征融合并投影到图像空间。因此,TransWeather 只需一个编码器和一个解码器来学习天气类型并生成清晰的图像。

与 CNN 相比,Transformers 擅长提取丰富的全局信息 [9]。然而,我们认为当补丁像 ViT [9] 中的那样大时,我们无法过多地关注补丁中的信息。像雨条、雨滴和雪这样的天气退化通常规模很小,因此在一个补丁中可能会出现多个伪影。

为此,我们提出了一种带有补丁内变换器(Intra-PT)块的新型变换器编码器。 Intra-PT 处理从原始补丁创建的子补丁,并挖掘较小补丁的特征和细节。因此,Intra-PT 专注于主要补丁内部的注意力,以有效消除天气退化。我们使用高效的自注意力机制来计算子补丁之间的注意力以保持低计算复杂度。

  Intra-PT 块有助于提取精细细节,有助于在我们对较小的补丁进行操作时消除较小的退化。请注意,除了在图像级别完成的第一阶段外,Intra-PT 块在特征级别创建补丁。 Intra-PT 块的输出自注意特征被添加到同一阶段主块的自注意特征。

我们定义天气类型查询来解码任务,预测任务特征向量并使用它来恢复干净的图像。这些天气类型查询是可学习的嵌入,它们与我们网络的其他参数一起学习。这些查询涉及变压器编码器的特征输出。这里的转换器解码器在单级运行,但有多个块。

 

我们在图 3 中说明了转换器解码器块。这些转换器块类似于编码器解码器转换器块 [50]。与 Q、K 和 V 从同一输入中获取的自注意力变换器块不同,这里的 Q 是天气类型可学习嵌入,而 K 和 V 是从变换器编码器的最后阶段获取的特征。输出的解码特征表示任务特征向量,并与在每个阶段通过 transformer 编码器提取的特征融合。所有这些特征都被转发到卷积尾以重建干净的图像。

天气查询能学到什么?

天气查询是嵌入,它了解图像中存在哪种类型的退化。这些查询有助于预测相应的任务向量,这有助于注入任务信息以获得更好的预测。

代码中self.task_query = nn.Parameter(torch.randn(1,48,dim))

 TransWeather 在一些受强降雨影响的真实世界图像中表现不佳。这可以理解为有时真实的雨水在条纹大小和强度方面有很大差异并且难以建模。此外,如果雨的强度很大,当它打在场景中的物体或人的表面时会产生飞溅效果。消除这种飞溅效果仍然是包括 TransWeather 在内的所有方法的一个限制。

 

  • 0
    点赞
  • 3
    收藏
    觉得还不错? 一键收藏
  • 2
    评论
### 回答1: CVPR2022是计算机视觉领域的顶级国际会议,而Transformer是一种基于自注意力机制的神经网络模型,已经在自然语言处理领域取得了很大的成功。在计算机视觉领域,Transformer也被广泛应用于图像生成、目标检测、图像分割等任务中。因此,CVPR2022中关于Transformer的研究和应用将会是一个热门话题。 ### 回答2: CVPR2022是计算机视觉领域内的一场重要学术会议,其中涉及到了许多最新的技术和研究成果。其中,Transformer是一个备受关注的话题。 Transformer是一种基于注意力机制的神经网络结构,最初是被提出作为解决自然语言处理任务的一种方法。但是,后来人们发现Transformer同样适用于计算机视觉领域中的各种任务,如目标检测、图像分割、图像生成等。 在CVPR2022中,许多研究人员展示了他们基于Transformer的新方法和改进。其中,一些新方法表现出了很好的性能,证明了Transformer在计算机视觉领域中的应用前景。 另外,还有一些关于Transformer的应用研究值得关注。例如,一些研究人员提出了一种基于Transformer的迁移学习方法,可以将已经训练好的模型应用于新的数据集,从而提高模型的泛化能力。此外,还有一些研究人员探究了Transformer结构在图像内部表示方面的作用,以及如何优化Transformer以提高其计算效率等问题。 总之,Transformer在计算机视觉领域中的应用前景十分广阔,CVPR2022中越来越多的研究人员开始关注并致力于Transformer的发展和应用,相信在不久的将来,Transformer将会在计算机视觉领域中扮演更加重要的角色。 ### 回答3: CVPR是计算机视觉领域的顶级国际学术会议。每年,来自世界各地的研究人员都会在该会议上展示他们的最新研究成果,并分享他们的见解和经验。CVPR2022 TransformerCVPR2022的一个重要话题,它展示了近年来该领域中的最新技术。 Transformer是一种用于自然语言处理(NLP)和计算机视觉(CV)的深度学习模型。该模型在2017年由谷歌公司提出,并在机器翻译任务中获得了巨大的成功。近年来,Transformer已被广泛应用于计算机视觉领域,并在图像分类、目标检测、图像分割、人体姿势估计等任务上取得了优异的结果。 CVPR2022 Transformer展示了一系列最新的技术和应用。首先,该会议涵盖了Transformer模型的各种变体,包括BERT、RoBERTa、GPT和DeiT等。这些变体旨在通过使用更好的语言和图像表示方法来提高模型的性能。其次,该会议还探讨了Transformer在各种计算机视觉任务中的应用,如自然场景文本识别、物体检测和图像生成等。 与传统的卷积神经网络(CNNs)相比,Transformer模型具有许多优势。首先,Transformers可以捕获长期依赖性,因此它们在处理序列数据时更加有效。其次,Transformers具有自注意力机制,这意味着它们能够高效地对重要信息进行集中处理。最后,Transformers可以通过使用预训练模型来提高其性能,这使得它们更适合于小样本或零样本学习。 总之,CVPR2022 Transformer是计算机视觉领域中的一个重要话题,它展示了这一深度学习模型在图像处理中的最新技术和应用。Transformer模型的优越性能使得它成为计算机视觉领域中的一项关键技术,将随着时间的推移变得更加成熟和广泛应用。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 2
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值