韩国ETRI提出实时Anchor-Free实例分割算法CenterMask,代码将开源

点击我爱计算机视觉标星,更快获取CVML新技术


今天来自韩国ETRI的一篇论文CenterMask : Real-Time Anchor-Free Instance Segmentation 很抢眼,作者称“CenterMask outperforms all previous state-of-the-art models at a much faster speed”,其分割精度打败了所有之前的State-of-the-art,速度也更快!

作者信息:

作者均来自韩国电子与通信研究所ETRI。


下图展示了CenterMask的精度和fps,其在精度和速度上均超越了Mask R-CNN。

在CenterMask中使用了作者新提出的骨干网VoVNetV2,下图展示了相比于现有其他骨干网,VoVNetV2可大幅度改进精度。

作者使用的GPU为V100/Xp。

主要改进点

仿照Mask R-CNN是在Faster R-CNN基础上实现实例分割,CenterMask是在著名的一阶段anchor-free目标检测算法FCOS基础上添加了作者发明的SAG-Mask模块,实现了更快也更好的实例分割。

CenterMask架构图:

SAG-Mask 为 spatial attention-guided mask branch,即空间注意力引导的mask分枝,作者称空间注意力模块 (SAM)可让分割模块有效聚焦于有意义的像素而抑制无信息的像素。

实验结果

在 COCO tes-dev2017 数据集上的分割精度和速度:

可见CenterMask整体上取得了更好的精度,mask AP达到38.3,而其快速模型CenterMask-Lite 也相比于之前的实时实例分割算法YOLACT速度更快、精度更高。

一些分割结果例子:

作者称CenterMask不仅是又好又快的实例分割算法,其使用的骨干网也非常值得在其他任务中尝试,代码将开源。

论文地址:

https://arxiv.org/abs/1911.06667v1

在我爱计算机视觉公众号后台回复“CenterMask”,即可收到国内下载地址。


图像分割交流群

关注最新最前沿的语义分割、实例分割、全景分割技术,扫码添加CV君拉你入群,(如已为CV君其他账号好友请直接私信)

(请务必注明:分割)

喜欢在QQ交流的童鞋,可以加52CV官方QQ群:805388940。

(不会时时在线,如果没能及时通过验证还请见谅)


长按关注我爱计算机视觉

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值