隆重介绍!一款新型基于姿势的人像实例分割框架

 

 

全文共 2493字,预计学习时长 15分钟或更长

 

隆重介绍!一款新型基于姿势的人像实例分割框架

拍摄:Jezael Melgoza 来源:Unsplash

 

近年来,由于现实应用需求大,在计算机视觉领域有关“人”的研究层出不穷,实体分割就是其中一员。

 

一般来说,图像分割首先需要进行物体检测,然后将物体从边框检测中分割开来。不久前,类似于Mask R-CNN的深度学习方法做到了同时检测和分割物体。但是因为类似身份识别、跟踪等与人类相关的研究变得越来越普遍,人们可能会好奇为什么“人类”的独特性却被忽视了。

 

“人类”的独特性可以很好的通过人的骨架来定义。并且,在多重遮挡的实例当中,人更好地将人体骨骼与边框区分开来。

 

隆重介绍!一款新型基于姿势的人像实例分割框架

图1 使用人体姿势比边框更容易分割高度重合的人类图像。

 

本文将回顾《pose2seg:自由检测人像实例分割》这篇论文。在这篇论文中,作者介绍了一种新型基于姿势的人像实例分割框架,可基于人体姿势来分离图像实例。

隆重介绍!一款新型基于姿势的人像实例分割框架

 

 

什么是实例分割?

 

隆重介绍!一款新型基于姿势的人像实例分割框架

图2 常见的计算机视觉用例

 

我们想把实例分割可用来在像素级别图像中识别每一种物品。这说明标记得同时做到分类感知和实例感知,例如图2(d)对羊1、羊2等作了不同的标记。

 

实例分割在以下常见用例中被认为最具挑战性:

分类:图中有一个人。见图2(a)

物体检测:在这张图中,这些位置有5头羊。见图2(b)

语义分割:图中有羊、人和狗的像素点。见图2(c)

实例分割:在这些位置有五头不同的羊,一个人和一只狗。见图2(d)

 

隆重介绍!一款新型基于姿势的人像实例分割框架

 

Pose2Seg:自由人像实例分割检测

 

1. 直觉

 

Pose2Seg背后的产生原因是尽管一般对象实例分割方法运作良好,但这些工作大部分基于强大的物体检测。也就是说,首先生成大量建议局域,然后使用非极大值抑制(NMS)删除冗余区域,如图3所示。

 

隆重介绍!一款新型基于姿势的人像实例分割框架

图3(左)在非极大值抑制前,(右)在使用非极大值抑制之后。

 

当同类的两个事物有很大面积的重叠,NMS会将其当作冗余的候选区域,然后将它删除。这种情况说明基本上所有物体检测方法面对大面积重叠都束手无策。

 

但是,在处理大多数“人类“时,可通过人类骨架进行定义。如图1所示,人类骨架更适合用来区分两个重合面积很大的人。比起边框,他们可以提供更清晰的个人信息,比如说不同身体部位的位置和可见性。

 

2. 网络结构

 

整体网络结构如图4所示。网络将所有存在的人类实例以RGB图像输入。首先,利用主干网络提取图像特征;然后,放射对齐模块根据人体姿势将ROI对齐成统一的大小(为了一致性)。此外,还为每个人体实例生成骨架特征。

 

现在,ROI和骨架特征都融合在一起并传递给segmodule分割模块,生成每个ROI的实例分割。最后,仿射对齐操作中的估计矩阵进行反向对齐,得到最终的分割结果。

网络子模块将在下面的小节中详细描述。

 

隆重介绍!一款新型基于姿势的人像实例分割框架

图4 网络结构概览:(a)仿射对齐操作(b)骨架特征(c)SegModule结构

 

3. 仿射对齐操作

 

仿射对齐操作主要受快速R-CNN中的ROI池和掩模R-CNN中的ROI对齐的启发。但是,当根据边界框对齐人类时,仿射对齐被用来基于人类姿势的对齐。

要做到这一点,需要离线存储最常见的人体姿势,稍后比较训练/推理时的每个输入姿势(参见下面的图5)。其想法旨在为每个估计姿势选择最佳模板。这是通过估计输入姿态和模板之间的仿射变换矩阵h,并选择得到最佳分数的仿射变换矩阵h来实现的。

 

隆重介绍!一款新型基于姿势的人像实例分割框架

 

 

 

在此P_u代表一个姿势模板,p代表对一个人的姿势估计。矩阵H*是为最适合每个姿势模板选择的仿射变换。最后,将图像或特征应用得分最高的变换H*转换为所需的分辨率。

 

隆重介绍!一款新型基于姿势的人像实例分割框架

图5 仿射对齐操作

 

4. 骨架特征

 

隆重介绍!一款新型基于姿势的人像实例分割框架

图6 骨架特征模型

 

图6显示了骨架特性。对于此任务,将采用部分关联字段(PAF)。PAF的输出是每个骨架2通道的向量场映射。PAF用于表示人体姿势的骨架结构以及身体部位的部分置信度地图,以强调身体部位关键点周围区域的重要性。

 

5. SEGModule

SEGModule是一种简单的编码器-解码器体系结构,其接受域是一大考虑因素。由于在对准后引入了骨架特征,SEGModule需要有足够的接收字段,这不仅能完全理解这些人工特征,而且能学习它们与基础网络提取的图像特征之间的联系。因此,它是基于校准的ROI的分辨率进行设计的。

 

该网络首先是7×7,stride -2的卷积层,然后是几个标准的以实现足够大的接收场的剩余单元,用于ROI。然后,用双线性上采样层恢复分辨率,用另一个剩余单元和1×1卷积层预测最终结果。这样一个具有10个剩余单元的结构可以实现约50个像素的接收场,相当于 64×64的对齐尺寸。单位越少,网络的学习能力就越差,单位越多,学习能力就越差。

隆重介绍!一款新型基于姿势的人像实例分割框架

 

 

经验和结果

 

Pose2Seg在两类数据库中得到评测:(1)本文最大的验证数据集——OCHuman,主要针对过度重合的人类;(2)COCOPerson(COCO的人类别),包含了日常生活中最常见的场景。

 

该算法主要与常用的基于检测的实例分割框架Mask-RCNN进行了比较。

 

在使用OCHuman数据集对被遮挡数据进行测试时,如表1所示,Pose2Seg框架的性能比Mask R-CNN高出近50%。

 

隆重介绍!一款新型基于姿势的人像实例分割框架

表1 遮挡性能。所有的方法在COCOPersons上训练,并在OCHuman上进行测试。

 

在一般情况下的测试中,COCOPerson验证数据集Pose2Seg在实例分割任务中得到0.582ap(平均精度),而Mask R-CNN只得到0.532。见表2。

 

隆重介绍!一款新型基于姿势的人像实例分割框架

表2 一般情况下表现

 

要从基于边框的框架中更好地了解pose2seg的优点,请参见下面的图7。看看“开箱即用”是如何在面具R-CNN中不被分割的。

 

隆重介绍!一款新型基于姿势的人像实例分割框架

图7 在遮挡案例中,pose2seg结果与MaskR-CNN的比较。使用预测的掩模生成边框,以便更好

图7 在遮挡案例中,pose2seg结果与MaskR-CNN的比较。使用预测的掩模生成边框,以便更好地进行可视化和比较。

隆重介绍!一款新型基于姿势的人像实例分割框架

  • 1
    点赞
  • 3
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值