两个ICCV 2021上的涨点神器!

点击下方卡片,关注“CVer”公众号

AI/CV重磅干货,第一时间送达

最近一直在整理ICCV 2021的论文和开源项目合集,感兴趣的同学可以打开下面链接:

https://github.com/amusi/ICCV2021-Papers-with-Code

聊到"涨点神器",其实蛮多人有意见,经常吐槽:这个根本没法用!在我的任务上不work!这不就是魔改xxx么?这种论文都能中?怎么不引用xxx?这个模块看起来好熟悉...

其实这些蛮难普适,哪怕是像Backbone、优化器、激活函数这些通用组件,都无法在任何任务有效或者零成本涨点。这里分享的"涨点神器",尽可能是适用于主流CV任务(如分类、检测和分割)。而且哪怕不work,其实一些模块结构的设计思路对一些同学也会有所启发(手动狗头)。

FaPN:用于密集图像预测的特征对齐金字塔网络

FaPN: Feature-aligned Pyramid Network for Dense Image Prediction

单位:南方科技大学

论文:https://arxiv.org/abs/2108.07058

代码链接(刚刚开源):

https://github.com/EMI-Group/FaPN

简介:本文提出了特征对齐金字塔网络:FaPN(Feature-aligned Pyramid Network),这是一种简单而有效的自上而下的金字塔结构,可生成用于密集图像预测的多尺度特征,可助力检测、分割任务涨点!如将其搭配MaskFormer,在ADE20K上高达56.7 mIoU!

深度神经网络的最新进展在密集图像预测方面取得了显著的飞跃。然而,为了简单起见,大多数现有方法都忽略了特征对齐的问题。上采样和局部特征之间的直接像素添加会导致特征图具有未对齐的上下文,进而转化为预测中的错误分类,尤其是在对象边界上。

在本文中,我们提出了一个特征对齐模块(FAM),该模块学习像素的变换偏移以上下文对齐上采样的high-level特征;

另一个特征选择模块(FSM)强调具有丰富空间细节的low-level特征。

然后,我们将这两个模块集成到一个自上而下的金字塔架构中,并展示了特征对齐的金字塔网络(FaPN)。

实验结果

对四个密集预测任务(目标检测、语义分割、实例分割和全景分割)和四个数据集的广泛实验评估证明了 FaPN 的功效,与 Faster/Mask R-CNN 配对时,AP/mIoU 比 FPN 总体提高了 1.2 - 2.6 个点。

特别是,当集成到 Mask-Former 中时,我们的 FaPN 在 ADE20K 上实现了 56.7% mIoU 的最新技术。

北大&字节开源SNL:统一神经网络的Nonlocal Blocks

Unifying Nonlocal Blocks for Neural Networks

单位:北大, 字节AI Lab, 北邮, 国科大, 港科大

论文:https://arxiv.org/abs/2108.02451

代码链接(刚刚开源):

https://github.com/zh460045050/SNL_ICCV2021

简介:本文提出nonlocal-based block的新视角,并提出SNL:Spectral Nonlocal Block,当其插入深度神经网络时,该模块可以更稳健和灵活地捕获远程依赖关系。实验证明在图像分类、行为识别、语义分割和行人重识别任务上的性能显著提升,涨点显著!

基于nonlocal的blocks设计用于捕获计算机视觉任务中的远程时空依赖性。尽管表现出出色的性能,但它们仍然缺乏对图像或视频元素之间丰富的结构化信息进行编码的机制。

在本文中,为了从理论上分析这些nonlocal-based blocks的属性,我们提供了一个新的视角来解释它们,我们将它们视为在全连接图上生成的一组 graph filters。具体地,在选择Chebyshev graph filter时,可以导出统一的formulation,用于解释和分析现有的nonlocal-based blocks(例如,nonlocal block, nonlocal stage, double attention block)。

此外,通过考虑谱的特性,我们提出了一种高效且稳健的spectral nonlocal block,与现有的 nonlocal blocks.相比,当插入深度神经网络时,该模块可以更稳健和灵活地捕获远程依赖关系。

实验结果

实验结果证明了我们的方法在图像分类、行为识别、语义分割和行人重识别任务上的明显改进和实际适用性。

图像分类上的性能表现:

行为识别上的性能表现:

语义分割上的性能表现:

两个涨点神器论文和代码下载

后台回复:涨点神器,即可下载上述论文和代码

后台回复:CVPR2021,即可下载CVPR 2021论文和代码开源的论文合集

后台回复:ICCV2021,即可下载ICCV 2021论文和代码开源的论文合集

后台回复:Transformer综述,即可下载最新的两篇Transformer综述PDF

重磅!Transformer交流群成立

扫码添加CVer助手,可申请加入CVer-Transformer微信交流群,方向已涵盖:目标检测、图像分割、目标跟踪、人脸检测&识别、OCR、姿态估计、超分辨率、SLAM、医疗影像、Re-ID、GAN、NAS、深度估计、自动驾驶、强化学习、车道线检测、模型剪枝&压缩、去噪、去雾、去雨、风格迁移、遥感图像、行为识别、视频理解、图像融合、图像检索、论文投稿&交流、PyTorch和TensorFlow等群。

一定要备注:研究方向+地点+学校/公司+昵称(如Transformer+上海+上交+卡卡),根据格式备注,可更快被通过且邀请进群

▲长按加小助手微信,进交流群

▲点击上方卡片,关注CVer公众号

整理不易,请点赞和在看

  • 0
    点赞
  • 46
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
ICCV是计算机视觉领域的一个重要国际会议,其会议论文投稿需要使用特定的Word模板。ICCV Word模板采用了特定的格式和样式,用于规范会议论文的排版和呈现。 ICCV Word模板首先包含了论文的标题部分,包括论文的标题(中英文)、作者(包括机构和电子邮件地址)、关键词等。标题部分需要采用特定的字体、字号和居中对齐的格式。 其次,ICCV Word模板还规定了论文的正文格式。正文采用双栏排版方式,每栏的宽度、间距以及行距等都有特定的要求。正文中的段落需要自动缩进,且采用特定的字体和字号。此外,模板还要求正文的标题、子标题、图表标题等都需要采用特定的样式进行格式化。 ICCV Word模板还要求论文中的图表、公式、参考文献等的插入和引用都遵循特定的规范。论文中的图表需要编号,并且要有合适的标题和说明。公式需要采用特定的格式进行排版,参考文献需要按照特定的引用格式进行编写和排序。 最后,ICCV Word模板还规定了论文的页面设置,包括页面边距、页眉页脚、页码等。页面设置需要符合ICCV的要求,以便最终打印和出版。 总之,ICCV Word模板是为了规范论文的格式和排版,使得各篇论文在风格和呈现上保持统一。使用ICCV Word模板有助于减轻作者在排版和格式方面的工作,提高论文的可读性和一致性。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值