编辑|极市平台
本文原创首发极市平台,转载请获得授权并标明出处。
从 CVPR2021 公布结果开始,极市就一直对最新的 CVPR2021 进行分类汇总,共分为33个大类,包含检测、分割、估计、跟踪、医学影像、文本、人脸、图像视频检索、图像处理、三维视觉等多个方向。所有关于CVPR的论文整理都汇总在了我们的Github项目中,该项目目前已收获7500 Star。
Github项目地址(点击阅读原文即可跳转):
https://github.com/extreme-assistant/CVPR2021-Paper-Code-Interpretation
此前,我们对XXX进行了盘点,在本文中,我们将对CVPR2021接收论文中的16篇全景分割论文进行盘点和梳理接下来也会继续进行其他领域的 CVPR2021 论文盘点。如有遗漏或错误,欢迎大家在评论区补充指正。
注:在 极市平台 回复关键词“CVPR21分割”,即可获得以下论文打包下载。
论文一
Fully Convolutional Networks for Panoptic Segmentation(Oral)
标题:用于全景分割的全卷积网络
论文:https://arxiv.org/abs/2012.00720
代码:https://github.com/Jia-Research-Lab/PanopticFCN
本文提出了一个概念简单、强大且有效的全景分割框架,称为全景FCN。 本文方法旨在统一的全卷积管道中表示和预测前景目标和背景目标。特别的,全景FCN将每个实例编码到一个特定的内核中,并直接通过卷积生成预测。如下图所示,这种方法可以在在统一的工作流中分别满足实例感知以及语义一致性。全景FCN的核心思想是:在全卷积的管道中使用生成的内核均匀地表示和预测。在没有定位或实例分离的额外框的情况下,本文所提出的方法在具有单尺度输入的 COCO、Cityscapes 和 Mapillary Vistas 数据集上以高效率优于以前的基于框和无框模型。
全景FCN与过往研究的不同主要体现在两个方面:(1)在可数目标生成方面,全景FCN输出密集预测,然后利用NMS去除重叠,设计框架生成实例感知内核并直接生成每个特定实例;(2)与传统的基于FCN的不可数目标预测方法相比,即以逐像素的方式选择最可能的类别,全景FCN将全局上下文聚合到语义一致的内核中,并以整体实例的方式呈现现有语义类的结果。
全文链接:CVPR2021 论文大盘点:全景分割论文汇总(共15篇)
关注极市平台公众号,获取最新CV干货