经典/最新计算机视觉论文及代码推荐

今日推荐几篇最新/经典计算机视觉方向的论文,涉及诸多方面,都是CVPR2022录用的文章,具体内容详见论文原文和代码链接。

用于 2D 和 3D Transformer 的框注意力机制

-  论文题目:BoxeR: Box-Attention for 2D and 3D Transformers

- 论文链接:https://arxiv.org/abs/2111.13087

-  代码链接:https://github.com/kienduynguyen/BoxeR

      

在本文中,作者提出了一种简单的注意力机制,称之为 Box-Attention。它支持输入特征与其相关区域内的网格特征之间的空间交互,提高了 Transformer 在多个视觉任务中的学习能力。具体来说,我们提出了 BoxeR,它预测输入特征的兴趣框相对于参考窗口的平移和尺寸变换,从而注意到变换后兴趣框内的网格特征。BoxeR 在计算这些框的注意力权重时只考虑输入特征和网格结构。值得注意的是,BoxeR-2D 能够在其注意力模块中推理框信息,使其更加适用于端到端的实例检测和分割任务。BoxeR-3D 能够从鸟瞰平面生成判别信息,用于 3D 端到端对象检测,这依赖于 box-attention 3D 模块在 2D 模块的基础上额外预测兴趣框的旋转变换。

加速DETR收敛的去噪训练

  • 论文题目:DN-DETR: Accelerate DETR Training by Introducing Query DeNoising

  • 论文链接:https://arxiv.org/pdf/2203.01305.pdf

  • 代码链接:https://github.com/IDEA-opensource/DN-DETR

我们对DETR收敛缓慢给出了一个深刻的理解,并第一次提出了全新的去噪训练(DeNoising training)解决DETR decoder二分图匹配 (bipartite graph matching)不稳定的问题,可以让模型收敛速度翻倍,并对检测结果带来显著提升(+1.9AP)。该方法简易实用,可以广泛运用到各种DETR模型当中,以微小的训练代价带来显著提升,3个审稿人中2个都对论文给出了满分!

目标检测的定位蒸馏

  • 论文题目:Localization Distillation for Dense Object Detection

  • 论文链接:https://arxiv.org/abs/2102.12252

  • 代码链接:https://github.com/HikariTJU/LD

方法概括:把用于分类head的KD(知识蒸馏),用于目标检测的定位head,即有了LD (Localization Distillation)。

做法:先把bbox的4个logits输出值,离散化成4n个logits输出值,之后与分类KD完全一致。

意义:LD使得logit mimicking首次战胜了Feature imitation。分类知识与定位知识的蒸馏应分而治之、因地制宜。

后续

下一期最新/经典视觉cvpr顶会论文敬请期待!

  • 1
    点赞
  • 4
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

小小谢先生

支持知识付费

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值