论文:图像分割之YOLACT Real-time Instance Segmentation

YOLACT是一种新的实时实例分割模型,它实现了29.8 mAP的高精度,同时在单个GPU上以33.5 fps的速度运行。该模型通过并行生成原型掩码和预测掩码系数,简化了实例分割任务,避免了特征定位步骤,从而提高了速度和掩码质量。此外,它分析了原型的涌现行为,展示了它们如何自我定位实例。YOLACT还包括Fast NMS,一个比传统NMS更快的替代方案,速度提升了12 ms。
摘要由CSDN通过智能技术生成

作者

在这里插入图片描述

摘要

We present a simple, fully-convolutional model for real-time instance segmentation that achieves 29.8 mAP on MS COCO at 33.5 fps evaluated on a single Titan Xp, which is significantly faster than any previous competitive approach. Moreover, we obtain this result after training on only one GPU. We accomplish this by breaking instance segmentation into two parallel subtasks: (1) generating a set of prototype masks and (2) predicting per-instance mask coefficients. Then we produce instance masks by linearly combining the prototypes with the mask coefficients. We find that because this process doesn’t depend on repooling, this approach produces very high-quality masks and exhibits temporal stability for free. Furthermore, we analyze the emergent behavior of our prototypes and show they learn to localize instances on their own in a translation variant manner, despite being fully-convolutional. Finally, we also propose Fast NMS, a drop-in 12 ms faster replacement for standard NMS that only has a marginal performance penalty.

我们提出了一个简单的全卷积模型,用于实时实例分割,在单个 Titan Xp 上以 33.5 fps 的速度在 MS COCO 上实现 29.8 mAP,这比以前的任何竞争方法都快得多。此外,我们只在一个 GPU 上训练后获得了这个结果。我们通过将实例分割分解为两个并行的子任务来实现这一点:(1)生成一组原型掩码和(2)预测每个实例的掩码系数。然后我们通过将原型与掩码系数线性组合来生成实例掩码。我们发现,因为这个过程不依赖于 repooling,所以这种方法可以产生非常高质量的掩码,并免费表现出时间稳定性。此外,我们分析了原型的紧急行为,并表明它们学会了以翻译变体的方式自行定位实例,尽管它们是完全卷积的。最后,我们还提出了 Fast NMS,它是标准 NMS 的快速替代品,速度快 12 毫秒,仅具有边际性能损失。

Introduction

"Boxes are stupid anyway though, I’m probably a true believer in masks except I can’t get YOLO to learn them. ”
– Joseph Redmon, YOLOv3 [36]

创建实时实例分割算法需要什么?在过去的几年里,vision community在实例分割方面取得了长足的进步,部分原因是利用了成熟的对象检测领域的强大相似之处。最先进的实例分割方法,如 Mask RCNN [18] 和 FCIS [24],直接建立在 Faster R-CNN [37] 和 R-FCN [8] 等对象检测的进步基础之上。然而,这些方法主要侧重于性能而不是速度,使得场景缺乏与 SSD [30] 和 YOLO [35, 36] 等实时对象检测器平行的实例分割。在这项工作中,我们的目标是用一个快速的单阶段实例分割模型来填补这一空白,就像 SSD 和 YOLO 填补对象检测的空白一样。
在这里插入图片描述
然而,实例分割很难——比目标检测困难得多。 SSD 和 YOLO 等单级目标检测器能够通过简单地移除第二级并以其他方式弥补性能损失来加速现有的两级检测器(如 Faster R-CNN)。然而,相同的方法不容易扩展到实例分割。最先进的两阶段实例分割方法在很大程度上依赖于特征定位来生成掩码。也就是说,这些方法在某些边界框区域(例如,通过 RoIpool/align)“重新汇集”特征,然后将这些现在本地化的特征提供给它们的掩码预测

  • 0
    点赞
  • 3
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
### 回答1: Deep Snake是一种用于实时实例分割的算法。它基于深度学习技术,通过对图像中的每个像素进行分类,实现对目标物体的精确分割。Deep Snake算法具有高效性和准确性,可以应用于许多领域,如自动驾驶、医学影像分析等。 ### 回答2: DeepSnake是一个用于实时实例分割的新型神经网络模型。与传统的基于卷积神经网络(CNN)的实例分割方法不同,DeepSnake使用自适应的密集曲线组件,来更好地关注目标对象的形状特征,从而实现更精确的分割结果。 DeepSnake的设计基于一种称为“变形回归”的曲线回归方法。该方法使用两个CNN分支,来分别处理图像区域和曲线参数,然后将它们组合起来进行端到端的训练。其中,图像分支出自用于目标检测任务的ResNet,而曲线分支则采用了U-Net结构。 DeepSnake的优点在于可以克服目标形状多样性和大小变化等问题,能够适应各种不同的数据集,并且在计算效率上具有很高的实时性。与一些竞争的实例分割算法相比,DeepSnake在准确率和速度上都有不错的表现。在PASCAL VOC 2012和COCO 2017数据集上测试,DeepSnake的性能超过了相同条件下的大多数算法,同时具有更低的计算成本。 总之,DeepSnake为实时实例分割任务提供了一种创新的方法,可以应用于许多领域,如智能监控、自动驾驶和机器人导航等。 ### 回答3: Deep Snake是一种用于实时实例分割的新型神经网络架构,由来自华盛顿大学的研究团队开发。与目前主流的神经网络架构Mask R-CNN相比,Deep Snake的优势在于能够更加准确地分割物体,同时在速度和计算资源消耗方面表现更好。 具体来说,Deep Snake使用了一种名为“蛇形控制器”的新型机制来协调具有各自目标的多个神经元。这种机制使得网络在提取图像中物体的轮廓信息时更加准确。Deep Snake还采用了特殊的分组卷积层,用于在不同的尺度上提取特征,以更好地分割物体。 此外,Deep Snake还可以使用相对较少的内存和计算资源,快速运行实例分割任务。研究者使用COCO数据集进行了实验,结果表明Deep Snake在准确率和速度方面都优于Mask R-CNN。在单个Nvidia 1080Ti GPU上,Deep Snake可以实现每秒5.7帧的实时实例分割,准确率高达33.6%。 总的来说,Deep Snake是一种非常有潜力的神经网络架构,可用于实时实例分割。它不仅可以提高准确性,还可以节省计算资源和实现更快的运行速度。未来,深度学习的研究者将继续探索和改进这种架构,以满足不断发展的实时实例分割需求。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值