CVPR 2018 | 旷视科技人体姿态估计冠军论文——级联金字塔网络CPN

全球计算机视觉顶会 CVPR 2018 (Conference on Computer Vision and Pattern Recognition,即IEEE国际计算机视觉与模式识别会议)将于6月18日至22日在美国盐湖城举行。作为大会钻石赞助商,旷视科技研究院也将在孙剑博士的带领下重磅出席此次盛会。而在盛会召开之前,旷视将针对 CVPR 2018 收录论文集中进行系列解读。

论文名称:Cascaded Pyramid Network for Multi-Person Pose Estimation

论文链接:https://arxiv.org/abs/1711.07319

GitHub:https://github.com/chenyilun95/tf-cpn.git

目录

  • 导语
  • 设计思想
  • 网络架构
    • GlobalNet
    • RefineNet
  • 实验
  • 结论
  • 参考文献

导语

人体姿态估计是计算机视觉领域的基本研究方向之一,多人姿态估计(Multi-Person Pose Estimation)是该方向上的一个经典难题;在传统算法遭遇瓶颈之时,虽然卷积神经网络的再次崛起和快速迭代为解决这一问题带来了新工具,多人姿态估计依然面临着一些百啃不动的“硬骨头”。为此,旷视科技提出级联金字塔网络(Cascaded Pyramid Network/CPN),可优化解决关键点难以识别的问题,结果证明非常奏效。CPN 的这一技术突破将促进人体姿态估计相关应用领域的发展,比如游戏动画、安防(异常行为检测等)、体育(裁判辅助等)、自动驾驶等。

设计思想

多人姿态估计旨在识别和定位图像之中所有人体的关键点,对于很多视觉应用比如人体动作识别和人机交互来说,这是一个基本的研究课题。

最近,由于深度神经网络的快速发展,多人姿态估计获得显著提升。比如 Mask R-CNN 首先预测人体边界框,接着据此压缩特征图以获取人体关键点。尽管成果不断,但面临的挑战并未减少,比如在关键点重叠,关键点不可见以及背景拥挤的情况下很难实现定位;究其原因主要有两方面:1)上述“困难”点无法只根据其外观特征被简单识别,比如躯干点;2)上述“困难”点在训练期间并没有被明确处理。

为此,本文提出一种全新的网络架构——级联金字塔网络(Cascaded Pyramid Network/CPN),它分为两个阶段:GlobalNet 和 RefineNet。GlobalNet 基于特征金字塔网络学习一个好的特征表征。并且,金字塔特征表征可以提供充足的语境信息,这对于推断遮挡和不可见的关键点来说必不可少。在金字塔特征的基础上,RefineNet 显式地处理“困难”点。

这是一种 top-down pipeline,先通过检测器检测出图像之中的人,再把每个人抠出来并做单人姿态估计,最后把结果整合到原图上。CPN 这种两阶段架构设计的想法其实也不复杂,甚至可以说是相当朴素直观,来源于人是怎么识别人体关键点,即由特征金字塔网络 GlobalNet先识别出简单关键点,再由(借助 online hard keypoint mining loss 的)RefineNet 整合来自前者的特征表征以识别余下的困难关键点。这样从易到难,层层推进,最终克服了关键点难以识别的问题。

此外,本文还探索了不同因素(人体检测器和数据预处理等)对多人姿态估计的影响。比如,通过实验发现检测平均精度(Detection mAP)在达到一定阈值(Det mAP41.1)之后对关键点平均精度(Keypoint mAP)的影响有限。再比如使用Large batch,可以把 CPN 的 mAP 提升 0.4-0.7 个百分点,这说明除了物体检测之外,Large batch 同样适用于关键点识别。这些细节对于研究如何进一步提升 CPN 的准确度和鲁棒性非常有价值。

网络架构

类似于 Mask R-CNN,CPN pipeline 也是自顶而下的:首先通过人体检测器根据图像生成一个边界框集合;接着通过单人关键点估计器预测每个人关键点的详细定位。采用基于 FPN 的当前最优物体检测器作为人体检测器,并用 Mask R-CNN ROIAlign 替代 FPN ROIPooling。在 Stacked hourglass 等网络的启发下,本文提出 CPN,其架构如图 1 所示。

图 1:级联金字塔网络(CPN)。L2 loss* 表示带有在线困难关键点挖掘的 L2 loss。

 

GlobalNet

CPN 的网络架构基于 ResNet。把不同卷积特征 conv2∼5 的最后残差块分别表示为 C_2 , C_3 , ..., C_5,并在其上应用 3 × 3 卷积滤波器生成关键点的热力图。如图 2 所示,浅层特征比如C_2 , C_3 在定位上有着较高的空间分辨率,但是在识别上语义信息较少。另一方面,由于卷积(和池化),深度特征层比如 C_4,C_5 语义信息较多,但空间分辨率较低。因此经常引入 U 型结构同时保留特征层的空间分辨率和语义信息。

图 2:不同特征的输出热力图。绿点表示关键点的 groundtruth 位置。

 

最近,FPN 通过深度监督信息进一步完善了 U 型结构,本文的关键点估计应用了相似的特征金字塔结构。稍微不同于 FPN,在上采样的过程中,作者在逐像素加和之前使用 1 × 1 卷积核,而这一结构正是 GlobalNet。

如图 2 所示,基于 ResNet backbone,GlobalNet 可有效定位简单的可见关键点(比如眼睛),却无法精确定位困难的隐藏关键点(臀部)。对臀部这类关键点的定位通常需要更多的语境信息和处理,而不是相邻的外观特征。很多情况下,单一 GlobalNet 无法直接识别这些“困难”点。

RefineNet

GlobalNet 生成特征金字塔表征来识别“容易”点,RefineNet 则显式处理“困难”关键点。为提升信息传输的效率,保证信息完整性,RefineNet 在不同层之间传输信息,并通过像 HyperNet 一样的上采样和连接把这些信息整合起来。不同于 Stacked hourglass 的优化策略,RefineNet 接收了来自所有金字塔层的特征信息,而不是类似 hourglass 模块之间仅通过最后一个上采样特征进行信息传递。此外还把更多的 bottleneck 模块来处理更深的特征,其较小的空间尺度可实现效率和性能的良好权衡。

随着训练的进行,网络会倾向于关注占比较多的“简单”点,其重要性不及“困难”点,比如遮挡等情况,因此网络对两者的关注应该取得一个平衡。为此,RefineNet 根据训练损失在线地显式选择困难关键点(称之为在线困难关键点挖掘/ OHKM),并只从已选择的关键点反向传播梯度。

实验

整个 CPN pipeline 按照自顶而下的方式估计多人姿态。首先通过当前最优的人体框检测器生成人体 proposals;对于每个 proposal,假定其裁剪区域之内只包含一个人体,然后再由姿态估计网络给出最后的预测。本节将从实验数据的角度展示 CPN 的性能。

CPN 评估选用的数据集是 MS COCO test-dev 和 test-challenge。表 10 是 CPN 在 COCO test-dev 上的最终结果。在没有额外训练数据的情况下,CPN 单一模型的 AP 值为 72.1,CPN 多模型融合(带有不同的 groundtruth 热力图)的 AP 值为 73.0。表 9 给出了 CPN 与其他方法在 COCO test-challenge 2017 上的对比结果,72.1 的 AP 值为该数据集的当前最优结果。表 11 是 CPN 和 CPN+(集成模型)在 COCO minival 上的表现,它为 COCO minival 与 COCO test-dev / test-challenge 之间的差距提供了一个参考。图 3 是一些 CPN 结果示例。

表 9:COCO test-challenge 2017 上的最终结果对比。

表 10:COCO test-dev 上的最终结果对比。

 

图 3:CPN 结果示例。

 

结论

按照 top-down pipeline,本文提出一种全新的级联金字塔网络 CPN 以解决“困难”关键点问题。具体而言,CPN 包含一个基于特征金字塔结构的 GlobalNet 和一个把所有金字塔特征连接为语境信息的 RefineNet 。此外,RefineNet 中还引入在线困难关键点挖掘以显式处理“困难”点。该算法在 COCO keypoint 基准上取得了当前最优结果,相较于 COCO 2016 keypoint 挑战赛关进有 19% 的提升。

参考文献

[15] K.He, G.Gkioxari, P.Dolla ́r, and R.Girshick. Mask R- CNN. arXiv preprint arXiv:1703.06870, 2017.

[16] K. He, X. Zhang, S. Ren, and J. Sun. Deep residual learning for image recognition. In The IEEE Conference on Computer Vision and Pattern Recognition (CVPR), June 2016.

[21] T. Kong, A. Yao, Y. Chen, and F. Sun. Hypernet: Towards accurate region proposal generation and joint object detection. In Computer Vision and Pattern Recognition, pages 845–853, 2016.

[24] T.-Y.Lin, P.Dolla ́r, R.Girshick, K.He, B.Hariharan, and S. Belongie. Feature pyramid networks for object detection. In CVPR, 2017.

[27] A. Newell, K. Yang, and J. Deng. Stacked hourglass networks for human pose estimation. In European Conference on Computer Vision, pages 483–499, 2016.

[28] G. Papandreou, T. Zhu, N. Kanazawa, A. Toshev, J. Tompson, C. Bregler, and K. Murphy. Towards Accurate Multi- person Pose Estimation in the Wild. ArXiv e-prints, Jan. 2017.

  • 3
    点赞
  • 17
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值