文献阅读 (CV)Camera Distance-aware Top-down Approach for 3D Multi-person Pose

动机:为什么作者想要解决这个问题?

  • 尽管3D人体姿态估计取得了进步,但以前的大多数方法只处理单人情况

贡献:作者在这篇论文中完成了什么工作(创新点)?

  • 多人姿态估计
  • 能够得到以相机为中心人体关键点的绝对坐标,看这篇论文的原因
  • 自上而下方法

规划:他们如何完成工作?

  • 系统架构

    1)DetectNet
       裁剪提取出人体边框。
    2)RootNet (重点)
       RootNet利用裁剪后的人体图像,定位人体的根 R = ( x R , y R , Z R ) \mathbf{R}=\left(x_{R}, y_{R}, Z_{R}\right) R=(xR,yR,ZR),其中 x R x_{R} xR y R y_{R} yR是像素坐标(不知道这个像素坐标和下面的有什么区别), Z R Z_{R} ZR 是绝对深度值。
    3)PoseNet
       从裁剪的人体图像中估计与根相关的 3D 姿态, P j r e l = ( x j , y j , Z j r e l ) \mathbf{P}_{j}^{r e l}=\left(x_{j}, y_{j}, Z_{j}^{r e l}\right) Pjrel=(xj,yj,Zjrel) x j x_{j} xj y j y_{j} yj是裁剪图像空间中的像素坐标, Z j rel  Z_{j}^{\text {rel }} Zjrel 是人体root的相对深度值。 Z j r e l Z_{j}^{r e l} Zjrel Z R Z_{R} ZR得到 Z j a b s Z_{j}^{a b s} Zjabs,然后将 x j x_{j} xj y j y_{j} yj转换到原始输入图像空间。最后通过简单的反投影得到最终的绝对3D 位姿。在这里插入图片描述

理由:通过什么实验验证它们的工作结果

  • 误差度量指标

       有两种评估指标被广泛使用。第一个是平均每个关节位置误差 (MPJPE) [1],它是在将估计的人体root与ground truth 3D 姿势对齐后计算的。第二个是进一步对齐后的 MPJPE(即 Procrustes 分析 (PA) [2]),被称为 PA MPJPE。为了评估绝对 3D 人类根的定位,引入了root R \mathbf{R} R 的估计坐标与 ground truth R ∗ \mathbf{R}^{*} R 之间的欧几里得距离的平均值,即根位置误差 (MRPE) 的平均值,作为一个新的度量:
    M R P E = 1 N ∑ i = 1 N ∥ R ( i ) − R ( i ) ∗ ∥ 2 , M R P E=\frac{1}{N} \sum_{i=1}^{N}\left\|\mathbf{R}^{(i)}-\mathbf{R}^{(i) *}\right\|_{2}, MRPE=N1i=1N R(i)R(i) 2,
       其中上标 i 是样本索引,N 表示测试样本的总数。

自己的看法

  • 最终实现效果

    思考这种图怎么画出来的???
    在这里插入图片描述

参考文献

[1] Human3.6m: Large scale datasets and predictive methods for 3d human sensing in natural environments.
[2] Generalized procrustes analysis

  • 2
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值