I^2RNet: Intra- and Inter-Human Relation Network for Multi-Person Pose Estimation 笔记

I2RNet: Intra- and Inter-Human Relation Network for Multi-Person Pose Estimation

前言

今天跟大家分享一篇厦大和微软的工作《I2R-Net: Intra- and Inter-Human Relation Network for Multi-Person Pose Estimation》,本文的新颖之处在于作者采用分层建模的方式来解决多人姿态估计问题。具体来说,首先建模单个姿态中关节点之间的关系,然后建模空间中人与人的关系。

文章简介:

出处: IJCAI 2022

题目: 《I2R-Net: Intra- and Inter-Human Relation Network for Multi-Person Pose Estimation》

作者: Y i w e i D i n g Yiwei Ding YiweiDing, W e n j i n D e n g Wenjin Deng WenjinDeng, Y i n g l i n Z h e n g Yinglin Zheng YinglinZheng, P e n g f e i L i u Pengfei Liu PengfeiLiu, M e i h o n g W a n g Meihong Wang MeihongWang, X u a n C h e n g Xuan Cheng XuanCheng, J i a n m i n B a o Jianmin Bao JianminBao, D o n g C h e n Dong Chen DongChen, and M i n g Z e n g Ming Zeng MingZeng

单位: S c h o o l o f I n f o r m a t i c s , X i a m e n U n i v e r s i t y School of Informatics, Xiamen University SchoolofInformatics,XiamenUniversity; M i c r o s o f t R e s e a r c h A s i a Microsoft Research Asia MicrosoftResearchAsia

文章地址: https://arxiv.org/pdf/2104.02486.pdf

项目地址:https://github.com/leijue222/Intra-and-Inter-Human-Relation-Network-for-MPEE

Background & Motivation

  本文主要解决多人姿态估计(Multi-person Pose Estimation)问题。多人姿态估计方法可以分为Top-Down和Bottom-up两种处理范式。其中,Top-down的方法首先从图像中检测出所有人,将每个人crop出来之后,resize到相同的尺寸,送入单人姿态估计模型进行关节点定位;而Bottom-up的方式将图像中所有关节点检测出来之后,在对所有关节点进行分组,即分配到每个人身上。这两种方式各有千秋。

  虽然已有方法取得了很好的结果,但是依然存在两个问题。对于Top-down方法来说,由于它将每个人crop出来单独进行姿态估计,因此会忽略多人之间的交互信息,即人与人之间的关系。对于Bottom-up方法来说,它间接地考虑了关节点之间的关系(因为Bottom-up是将所有人的关节点估计出来,再进行分组。在估计所有点的过程中,网络会学习到所有点之间的关系),但是同样也忽略了人与人之间的关系

  因此,本文主要探究如何建模intra-human(关节点级别)和cross-human(实例级别)的关系来提高多人姿态估计性能。本文的主要贡献有如下三点。
(本文的Motivation还是非常不错的,确实目前MPPE方面忽略了点之间、人之间的一些关系约束)

Contribution

  1. 提出了一个两阶段的MPPE框架,能够同时建模关节点间和人与人之间的关联。所提出的方法减小了姿态估计和人-人交互之间的gap。
  2. 提出的方法比较flexible。Intra-human的关系可以通过任意的姿态估计模型获得。同时inter-human关系的建模是很轻量的。
  3. 在CrowdPose, OCHUman, COCO上超过了目前最好的结果。

Methodology

  本文的整体框架也是比较简洁的,整体框图如图1所示,提出的I2RNet是一种Top-down的Heatmap-based方法,主要包含两个过程,第一个即为Intra-Human关系的建模,第二即为Inter-Human关系的建模。对于本文来讲,作者重点关注于Inter-Human关系的建模。

   Intra-Human Relation Modeling: 对于第一阶段,其实是很简单的,作者直接采用已有的姿态估计模型来定位每个人的姿态,即P={P1, P2, …, PN},其中N表示图像中人的数量。在这里,作者采用了MSE Loss作为中间监督。
在这里插入图片描述
  Inter-Human Relation Modeling: 如果要想建模人与人之间的关系,需要得到每个人的Instance级别的表征。经过第一阶段可以得到每个人的姿态Pi ∈ \in R h × w × d \mathbb{R}^{h \times w \times d} Rh×w×d。为了得到每个人的表征,作者采用了最大池化对得P进行全局特征的提取,得到降维后的特征 P i ′ ∈ R h / R × w / R × d P'_i \in \mathbb{R}^{h/R \times w/R \times d} PiRh/R×w/R×d,其中,R表示最大池化的步长;随后将 P i ′ P'_i Pi进行flatten操作,并将所有人的特征拼接到一起,得到最后的包含每个人instance-level表征的特征 X ∈ R L × d X \in \mathbb{R}^{L \times d} XRL×d,其中, L = h / R × w / R × N L = h/R \times w/R \times N L=h/R×w/R×N
在这里插入图片描述
   随后,将 X X X 送入Transformer block来建模Instance之间的关系。
在这里插入图片描述
   整个Inter-Human Relation Module的结构如下图所示。为了保留每个Instance表征的多样性及保留更多的空间信息,这里作者没有将Intra-特征的分辨率降为1。如图所示,右侧 X X X 中每种颜色表示一个Instance。经过一次W映射后,可以通过建模Instance内部表征的关系来学习Instance的全局表征。随后经过矩阵乘( ⊗ \otimes ),可以建模Instance之间的关系,即 M A t t M_Att MAtt。将其与value向量融合后,得到最终包含Instance-level关系的特征 X ′ X' X
在这里插入图片描述
   最后,将 X ′ X' X与单人Pose特征融合后(增强单个实例表征,以及关节点的空间信息),一起送入到Pose Estimation Head进行最终的姿态生成。这里,作者也采用了关节点热图的MSE Loss进行监督。最终的训练Loss为Intra- 和Inter-两部分的Loss加和。

  讨论: 对于建模多人场景中Instance-level的关系来说,Instance数量 N N N其实是一个比较重要的超参数,这决定着关系图的尺寸。本文中,作者根据不同数据集的特点,采用了不同的 N N N,如 N C r o w d P o s e = 6 N_{CrowdPose}=6 NCrowdPose=6 N O C H u m a n = 3 N_{OCHuman}=3 NOCHuman=3 N C O C O = 4 N_{COCO}=4 NCOCO=4。由于 N N N被设置为一个经验值,这就要求在学习过程中对Instance数量小于 N N N、大于 N N N的情况进行处理。

  对于Instance数量小于 N N N的情况,采用特征补齐,将Instance数量补充至 N N N,但在关系计算过程中,将该部分特征抹去,直接计算图像中存在的Instance之间的关系;对于Instance数量大于 N N N的情况,随机选取一个Instance作为目标,并选择其 N − 1 N-1 N1个近邻。

Experiments

Compare with the State-of-the-art Methods

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

Ablation Studies

在这里插入图片描述

   以上内容纯粹是跟人的一己之见,如有不到之处,烦请指出,大家一起交流~ 另外,码字不易,转载请注明哦!
(PS:本人关注评论或私信不及时,如没有及时反馈大家,请大家谅解~可以多给我发几条私信。平时也比较忙,有自己的实验和paper要赶,看到后会第一时间回复!谢谢)

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值