AlphaPose(RMPE)区域多人姿态估计理解

AlphaPose是一款精准的多人姿态估计算法,它在COCO和MPII数据集上取得了优异的性能,并提供了在线姿态跟踪器Pose Flow。文章介绍了AlphaPose的RMPE步骤,包括SSTN、P-NMS和PGPG,以及其在电影动画、虚拟现实、人机交互等领域的应用和面临的挑战。
摘要由CSDN通过智能技术生成

1.介绍

AlphaPose 是一个精准的多人姿态估计系统,是首个在 COCO 数据集上可达到 70+ mAP(72.3 mAP,高于 Mask-RCNN 8.2 个百分点),在 MPII 数据集上可达到 80+ mAP(82.1 mAP)的开源系统。为了能将同一个人的所有姿态关联起来,AlphaPose 还提供了一个称为 Pose Flow 的在线姿态跟踪器,这也是首个在 PoseTrack 挑战数据集上达到 60+ mAP(66.5 mAP)和 50+ MOTA(58.3 MOTA)的开源在线姿态跟踪器,精准度高于现有技术的最好结果。

AlphaPose官网:https://github.com/MVIG-SJTU/AlphaPose

姿态估计结果:

COCO test-dev 2015 的结果:

MPII 完整测试集的结果:

 AlphaPose是一个基于自上而下的多人姿态估计项目,目前的Alphapose实际上是yolov3-spp行人检测+姿态关键点检测+行人重识别算法的组合,对应多目标检测、单人姿态估计、行人重识别三个任务。

2.RMPE的步骤

  1. 先做多人目标检测
  2. 将检测到的目标裁剪下来,通过仿射变换转换成大小为固定大小的图像
  3. 使用单人姿态估计网络预测所有图像中的关键点,关键点回归用的是热图法
  4. 将检测到的关键点通过仿射变换的逆变换还原成原图像中的坐标。

Alphapose的单人姿态估计网络主要有三种输出格式:coco 17关键点,Halpe 26关键点和Halpe 136关键点。
如果想要在自己电脑上运行相关模型,需要去下载训练集,放到pretrained_models文件夹内即可,下载地址可以参考下面链接。

AlphaPose/MODEL_ZOO.md at master · MVIG-SJTU/AlphaPose · GitHub

3.RMPE架构

框架包含3个主要模块:SSTN、P-NMS和PGPG。Alphapose可以利用不准确的边界框和重复检测结果(这在实际的工程场景中非常常见。),最终在MPII数据集上达到了76.7的mAP精度。

相关组件:

  1. SSTN,更为高效的对中策略,来克服检测框质量不高的问题;
  2. P-NMS,利用姿态间距离去重技术;
  3. PGPG,一种用于姿态估计的样本增强技术,配合SSTN/P-NMS来获得更好地模型性能;

3.1 SSTN

       SSTN(Symmetric Spatial Transformer Network),对称空间变换网络,在不准确的bounding box

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

爱笑的tiger

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值