CVPR2022论文速递(2022.4.12)!共24篇!GAN/transformer/超分等

整理:AI算法与图像处理

CVPR2022论文和代码整理:https://github.com/DWCTOD/CVPR2022-Papers-with-Code-Demo

欢迎关注:

7b12b9295ab979524ccaf32e3faf0e9d.png

大家好,  最近正在优化每周分享的CVPR论文, 目前考虑按照不同类别去分类,方便不同方向的小伙伴挑选自己感兴趣的论文哈

欢迎大家留言其他想法,  合适的话会采纳哈! 求个三连支持一波哈

Updated on : 12 Apr 2022

total number : 24

分类 / Classification - 1 篇

Joint Distribution Matters: Deep Brownian Distance Covariance for Few-Shot Classification

标题:联合分配事项:少量分类的深褐色距离协方差

  • 论文/Paper: http://arxiv.org/pdf/2204.04567

  • 代码/Code: None

语义分割/Segmentation - 1 篇

Video K-Net: A Simple, Strong, and Unified Baseline for Video Segmentation

标题:视频K-Net:视频分割的简单,强大和统一的基线

  • 论文/Paper: http://arxiv.org/pdf/2204.04656

  • 代码/Code: https://github.com/lxtGH/Video-K-Net

GAN - 2 篇

Commonality in Natural Images Rescues GANs: Pretraining GANs with Generic and Privacy-free Synthetic Data

标题:自然图像中的共性救援GANS:预先利用通用和无自由的合成数据

  • 论文/Paper: http://arxiv.org/pdf/2204.04950

  • 代码/Code: None

Commonality in Natural Images Rescues GANs: Pretraining GANs with Generic and Privacy-free Synthetic Data

标题:自然图像中的共性救援GANS:预先利用通用和无自由的合成数据

  • 论文/Paper: http://arxiv.org/pdf/2204.04950

  • 代码/Code: None

超分/Super-Resolution - 1 篇

Learning Trajectory-Aware Transformer for Video Super-Resolution

标题:用于视频超分辨率的学习轨迹感知Transformer

  • 论文/Paper: http://arxiv.org/pdf/2204.04216

  • 代码/Code: https://github.com/researchmm/TTVSR

Transformers - - 4 篇

Consistency Learning via Decoding Path Augmentation for Transformers in Human Object Interaction Detection

标题:通过解码路径增强用于人类对象交互检测的Transformer的一致性学习

  • 论文/Paper: http://arxiv.org/pdf/2204.04836

  • 代码/Code: https://github.com/mlvlab/CPChoi.

Multimodal Transformer for Nursing Activity Recognition

标题:用于护理活动识别的多峰Transformer

  • 论文/Paper: http://arxiv.org/pdf/2204.04564

  • 代码/Code: \url{https://github.com/Momilijaz96/MMT_for_NCRC}.

Multimodal Transformer for Nursing Activity Recognition

标题:用于护理活动识别的多峰Transformer

  • 论文/Paper: http://arxiv.org/pdf/2204.04564

  • 代码/Code: \url{https://github.com/Momilijaz96/MMT_for_NCRC}.

Learning Trajectory-Aware Transformer for Video Super-Resolution

标题:用于视频超分辨率的学习轨迹感知Transformer

  • 论文/Paper: http://arxiv.org/pdf/2204.04216

  • 代码/Code: https://github.com/researchmm/TTVSR

多模态 / Multimodal - 3 篇

XMP-Font: Self-Supervised Cross-Modality Pre-training for Few-Shot Font Generation

标题:XMP-FONT:少量字体生成的自我监督的跨模型预训练

  • 论文/Paper: http://arxiv.org/pdf/2204.05084

  • 代码/Code: None

Robust Cross-Modal Representation Learning with Progressive Self-Distillation

标题:具有逐步自蒸馏的强大跨莫代代表学习

  • 论文/Paper: http://arxiv.org/pdf/2204.04588

  • 代码/Code: None

Multimodal Transformer for Nursing Activity Recognition

标题:用于护理活动识别的多峰Transformer

  • 论文/Paper: http://arxiv.org/pdf/2204.04564

  • 代码/Code: \url{https://github.com/Momilijaz96/MMT_for_NCRC}.

姿态估计/Pose Estimation - 1 篇

Focal Length and Object Pose Estimation via Render and Compare

标题:通过渲染和比较焦距和对象姿态估计

  • 论文/Paper: http://arxiv.org/pdf/2204.05145

  • 代码/Code: http://github.com/ponimatkin/focalpose

检索/Image Retrieval - 1 篇

Beyond Cross-view Image Retrieval: Highly Accurate Vehicle Localization Using Satellite Image

标题:超越巧克力视图检索:使用卫星图像的高精度车辆本地化

  • 论文/Paper: http://arxiv.org/pdf/2204.04752

  • 代码/Code: None

NeRF - 1 篇

NAN: Noise-Aware NeRFs for Burst-Denoising

标题:NaN:噪音感知的NERF用于爆发去噪

  • 论文/Paper: http://arxiv.org/pdf/2204.04668

  • 代码/Code: None

深度估计/Depth Estimation - 1 篇

HiMODE: A Hybrid Monocular Omnidirectional Depth Estimation Model

标题:HIMODE:混合单眼全向深度估计模型

  • 论文/Paper: http://arxiv.org/pdf/2204.05007

  • 代码/Code: None

其他/Other - 12 篇

Single-Photon Structured Light

标题:单光子结构光

  • 论文/Paper: http://arxiv.org/pdf/2204.05300

  • 代码/Code: None

Pyramid Grafting Network for One-Stage High Resolution Saliency Detection

标题:金字塔嫁接网络用于一级高分辨率显着性检测

  • 论文/Paper: http://arxiv.org/pdf/2204.05041

  • 代码/Code: None

Structure-Aware Motion Transfer with Deformable Anchor Model

标题:具有可变形锚模型的结构感知运动传输

  • 论文/Paper: http://arxiv.org/pdf/2204.05018

  • 代码/Code: None

SOS! Self-supervised Learning Over Sets Of Handled Objects In Egocentric Action Recognition

标题:SOS!自我监督学习在Egentric行动识别中的处理对象集

  • 论文/Paper: http://arxiv.org/pdf/2204.04796

  • 代码/Code: None

Reasoning with Multi-Structure Commonsense Knowledge in Visual Dialog

标题:在视觉对话中的多结构致辞知识推理

  • 论文/Paper: http://arxiv.org/pdf/2204.04680

  • 代码/Code: None

Learning Pixel-Level Distinctions for Video Highlight Detection

标题:学习像素级别的视频突出显示检测

  • 论文/Paper: http://arxiv.org/pdf/2204.04615

  • 代码/Code: None

Explaining Deep Convolutional Neural Networks via Latent Visual-Semantic Filter Attention

标题:通过潜在视觉语义滤波器注意解释深卷积神经网络

  • 论文/Paper: http://arxiv.org/pdf/2204.04601

  • 代码/Code: None

DeepLIIF: An Online Platform for Quantification of Clinical Pathology Slides

标题:DEEPLIIF:用于量化临床病理学幻灯片的在线平台

  • 论文/Paper: http://arxiv.org/pdf/2204.04494

  • 代码/Code: None

ManiTrans: Entity-Level Text-Guided Image Manipulation via Token-wise Semantic Alignment and Generation

标题:曼特拉人:通过令牌语义对齐和生成实体级文本引导图像操纵

  • 论文/Paper: http://arxiv.org/pdf/2204.04428

  • 代码/Code: None

FedCorr: Multi-Stage Federated Learning for Label Noise Correction

标题:FEDCORR:用于标签噪声校正的多级联合学习

  • 论文/Paper: http://arxiv.org/pdf/2204.04677

  • 代码/Code: https://github.com/Xu-Jingyi/FedCorr

Adaptive Differential Filters for Fast and Communication-Efficient Federated Learning

标题:自适应差分滤波器,用于快速和通信高效的联合学习

  • 论文/Paper: http://arxiv.org/pdf/2204.04424

  • 代码/Code: None

The Two Dimensions of Worst-case Training and the Integrated Effect for Out-of-domain Generalization

标题:最坏情况训练的两个维度和域外概括的综合效果

  • 论文/Paper: http://arxiv.org/pdf/2204.04384

  • 代码/Code: None

  • 0
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
### 回答1: CVPR2022计算机视觉领域的顶级国际会议,而Transformer是一种基于自注意力机制的神经网络模型,已经在自然语言处理领域取得了很大的成功。在计算机视觉领域,Transformer也被广泛应用于图像生成、目标检测、图像分割等任务中。因此,CVPR2022中关于Transformer的研究和应用将会是一个热门话题。 ### 回答2: CVPR2022计算机视觉领域内的一场重要学术会议,其中涉及到了许多最新的技术和研究成果。其中,Transformer是一个备受关注的话题。 Transformer是一种基于注意力机制的神经网络结构,最初是被提出作为解决自然语言处理任务的一种方法。但是,后来人们发现Transformer同样适用于计算机视觉领域中的各种任务,如目标检测、图像分割、图像生成等。 在CVPR2022中,许多研究人员展示了他们基于Transformer的新方法和改进。其中,一些新方法表现出了很好的性能,证明了Transformer计算机视觉领域中的应用前景。 另外,还有一些关于Transformer的应用研究值得关注。例如,一些研究人员提出了一种基于Transformer的迁移学习方法,可以将已经训练好的模型应用于新的数据集,从而提高模型的泛化能力。此外,还有一些研究人员探究了Transformer结构在图像内部表示方面的作用,以及如何优化Transformer以提高其计算效率等问题。 总之,Transformer计算机视觉领域中的应用前景十分广阔,CVPR2022中越来越多的研究人员开始关注并致力于Transformer的发展和应用,相信在不久的将来,Transformer将会在计算机视觉领域中扮演更加重要的角色。 ### 回答3: CVPR是计算机视觉领域的顶级国际学术会议。每年,来自世界各地的研究人员都会在该会议上展示他们的最新研究成果,并分享他们的见解和经验。CVPR2022 TransformerCVPR2022的一个重要话题,它展示了近年来该领域中的最新技术。 Transformer是一种用于自然语言处理(NLP)和计算机视觉(CV)的深度学习模型。该模型在2017年由谷歌公司提出,并在机器翻译任务中获得了巨大的成功。近年来,Transformer已被广泛应用于计算机视觉领域,并在图像分类、目标检测、图像分割、人体姿势估计等任务上取得了优异的结果。 CVPR2022 Transformer展示了一系列最新的技术和应用。首先,该会议涵盖了Transformer模型的各种变体,包括BERT、RoBERTa、GPT和DeiT等。这些变体旨在通过使用更好的语言和图像表示方法来提高模型的性能。其次,该会议还探讨了Transformer在各种计算机视觉任务中的应用,如自然场景文本识别、物体检测和图像生成等。 与传统的卷积神经网络(CNNs)相比,Transformer模型具有许多优势。首先,Transformers可以捕获长期依赖性,因此它们在处理序列数据时更加有效。其次,Transformers具有自注意力机制,这意味着它们能够高效地对重要信息进行集中处理。最后,Transformers可以通过使用预训练模型来提高其性能,这使得它们更适合于小样本或零样本学习。 总之,CVPR2022 Transformer计算机视觉领域中的一个重要话题,它展示了这一深度学习模型在图像处理中的最新技术和应用。Transformer模型的优越性能使得它成为计算机视觉领域中的一项关键技术,将随着时间的推移变得更加成熟和广泛应用。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值