c++可达矩阵_加州大学提出:实时实例分割算法YOLACT,可达33 FPS/30mAP!现已开源!...

3209fc7b12017e37338be2dd37b8e61c.png
Summary:加州大学提出:实时实例分割算法YOLACT,可达33 FPS/30mAP!现已开源!
编辑:Amusi
Date:2019-04-16
微信公众号:CVer 和 OpenCV大本营
原文链接:加州大学提出:实时实例分割算法YOLACT,可达33 FPS/30mAP!现已开源!

前戏

最近实例分割方向,出了很多paper,CVer也立即跟进报道(点击可访问):

  • CVPR2019 | 超越Mask R-CNN!华科开源图像实例分割新方法MS R-CNN

本文要介绍一篇很棒的实时实例分割论文:YOLACT,该论文是由 加利福尼亚大学 提出。截止2019年4月16日,据Amusi所了解,上述MS R-CNN应该是实例分割(Instance Segmentation)mAP 最高的算法;而本文 YOLACT 是实例分割中最快的算法(即FPS最大)。难能可贵都是这两篇paper,都已经开源!

注:YOLACT应该是Amusi了解到的第一个又快又好的实例分割算法,如果你有发现比这两个算法还fancy的paper,欢迎后台留言进行补充。

简介

《YOLACT: Real-time Instance Segmentation》

85149b08b3592481a8efe43eb3e7e7a9.png

arXiv: https://arxiv.org/abs/1904.02689

github: https://github.com/dbolya/yolact

作者团队:加利福尼亚大学

注:2019年04月05日刚出炉的paper

Abstract:我们提出了一个用于实时实例分割的简单全卷积模型,在单个Titan Xp上以33 fps在MS COCO上实现了29.8 mAP,这比以前的任何算法都要快得多。此外,我们只在一个GPU上训练后获得此结果。我们通过将实例分割分成两个并行子任务:(1)生成一组原型掩膜(prototype mask);(2)预测每个实例的掩膜系数(mask coefficients)。然后我们通过将原型与掩模系数线性组合来生成实例掩膜(instance masks)。我们发现因为这个过程不依赖于 repooling,所以这种方法可以产生非常高质量的掩模。此外,我们分析了 the emergent behavior of our prototypes,并表明他们学会以 translation variant manner 定位实例,尽管是完全卷积的。最后,我们还提出了快速NMS(Fast NMS),比标准NMS快12 ms,只有一点点性能损失。

946de926e134526fe7524bc63f923898.png

正文

背景

先介绍一下为什么叫YOLACT,因为其全称为:You Only Look At CoefficienTs。这里应该是致敬YOLO。

原作者在论文中引用了YOLOv3中的这句话,“Boxes are stupid anyway though, I’m probably a true believer in masks except I can’t get YOLO to learn them.”

6efcfc48f2ac9d3edb3cf841ba958022.png

注:日常催更,YOLOv4该来了吧!

本文算法(YOLACT)

YOLACT的目标是将掩模分支添加到现有的一阶段(one-stage)目标检测模型,其方式与Mask R-CNN对 Faster-CNN 操作相同,但没有明确的定位步骤(如,feature repooling)。 为此,我们将实例分割的复杂任务分解为两个更简单的并行任务,这些任务可以组合以形成最终的掩码。第一个分支使用FCN生成一组图像大小的“原型掩码”(“prototype masks),它们不依赖于任何一个实例。 第二个向目标检测分支添加额外的 head 以预测用于编码原型空间中的实例表示的每个 anchor 的“掩模系数”(“mask coefficients)的向量。最后,对经过NMS后的每个实例,我们通过线性组合这两个分支的工作来为该实例构造掩码。

YOLACT将问题分解为两个并行的部分,利用 fc层(擅长产生语义向量)和 conv层(擅长产生空间相干掩模)来分别产生“掩模系数”和“原型掩模” 。 然后,因为原型和掩模系数可以独立地计算,所以 backbone 检测器的计算开销主要来自合成(assembly)步骤,其可以实现为单个矩阵乘法。 通过这种方式,我们可以在特征空间中保持空间一致性,同时仍然是一阶段和快速的。

73ce6221f0c1060dda7d2db1aa526cdd.png

1 原型生成(Prototype Generation)

本文将 protonet 实现为FCN,其最后一层有k个 channels(每个原型一个)并将其附加到 backbone 特征层

0fe18fea31e2c977e3f45091ff9f8e3b.png

2 掩膜系数(Mask Coefficients)

典型的基于Anchor(anchor-based)的目标检测器在其预测 head 中具有两个分支:一个分支用于预测 c 类置信度(confidences),另一个分支用于预测 4 个边界框回归量。对于掩模系数预测,本文简单地添加并行的第三个分支,其预测 k 个掩模系数,一个对应于每个原型。因此,不是每个 anchor 产生4 + c个系数,而是产生4 + c + k

3 掩膜合成(Mask Assembly)

为了生成实例掩码,我们需要将原型分支和掩模系数分支进行合成,使用前者与后者的线性组合作为系数。这个运算可以由单个矩阵相乘完成:

847902b743dd3515a41121a20c407592.png

其中,P是 h*w*k 的原型掩膜,C是 n*k 的掩膜系数。

4 YOLACT 检测器(Detector)

Backbone:ResNet-101 + FPN

Image Size:550*550

注:本文其实尝试了ResNet-101和DarkNet-53,这部分很好理解,backbone越轻量级,YOLACT运行速度越快,但mAP越低。不过使用ResNet-101就能达到33 FPS,真的很赞。

5 快速非极大值抑制(Fast NMS)

实验结果

YOLACT在COCO test-dev上的mAP和FPS,其中基于ResNet-101的YOLACT-550 比之前具有相同mAP的算法快了 3.8倍。

51bcfe2f6fa0d7ad397601b28458e21d.png

Fast NMS的有效性

cc7b07c7273a27dcad0e59bf0dec14d2.png

YOLACT部分实例分割结果

4dc2c8fe0fc1d85a977d92359afe165e.png

---我是可爱的分割线---

关注 计算机视觉论文速递专栏,CVer OpenCV大本营微信公众号,获得第一手计算机视觉相关信息

4c7a3db45cfd084425a96e792b402a53.png

推荐阅读

邱锡鹏教授新书《神经网络与深度学习》,正式开源发布!

AI 算法面试经验合集(MSRA/BAT/字节跳动/京东/商汤/旷视/大疆等公司)

周志华教授等新书:《演化学习:理论和算法的进展》正式上线!

超越ResNet:Res2Net;目标检测新网络:FCOS ;何恺明最新论文:RandWire-WS

一文看尽21篇目标检测最新论文(腾讯/Google/商汤/旷视/清华/浙大/CMU/华科/中科院等)

CVPR2019 | 12篇目标检测最新论文(FSAF/GS3D/Libra R-CNN/Stereo R-CNN和GIoU等)

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值