3D人体姿态估计笔记

姿态估计

人体姿态估计:估计人的关节点坐标(回归问题)

  • RGB or RGBD
  • 图像 or 视频
  • 单目 or 多视角
  • 单人 or 多人
  • 2D or 3D
  • 3D姿态 or 3D形态

2D姿态估计

任务

  • 单人姿态估计
    • Benchmark: MPII (2014)
    • 代表作: CPM (CVPR 2016), Hourglass (ECCV 2016)
  • 多人姿态估计
    • Benchmark: COCO (2016), CrowdPose (2018)
    • 自底向上: OpenPose (CVPR 2017), Associative Embedding (NIPS 2017)
    • 自顶向下: CPN (CVPR 2018), MSPN (Arxiv 2018), HRNet (CVPR 2019)
  • 人体姿态跟踪
    • Benchmark: PoseTrack (2017)
    • 代表作: Simple Baselines (ECCV 2018)

 

挑战

  • 遮挡
  • 复杂背景
  • 特殊姿态

3D姿态估计

问题

从图片或视频中估计出关节点的三维坐标 (x, y, z) (回归问题)

  • 输入: 包含人体的图片
  • 输出: N×3个人体关节点

挑战

  • 巨大的3D姿态空间、自遮挡
  • 单视角2D到3D的映射中固有的深度模糊性、不适定性(一个2D骨架可以对应多个3D骨架)
  • 缺少大型的室外数据集(主要瓶颈)
    • 缺少特殊姿态的数据集(如摔倒,打滚等)
    • 由于数据集是在实验室环境下建立的,模型的泛化能力较差
    • 3D姿态数据集是依靠适合室内环境的动作捕捉(MOCAP)系统构建的。MOCAP系统需要带有多个传感器和紧身衣裤的复杂装置,在室外环境使用是不切实际的

应用

  • 动画,游戏
  • 运动捕捉系统
  • 行为理解
  • 姿态估计可以做为其他算法的辅助环节(行人重识别)
  • 人体姿态估计跟人体相关的其他任务一起联合学习(人体解析)

方法

  • 从2D图片直接暴力回归得到3D坐标
    • 3D Human Pose Estimation from Monocular Images with Deep Convolutional Neural Network (ACCV 2014)
    • Coarse-to-Fine Volumetric Prediction for Single-Image 3D Human Pose (CVPR 2017)
    • 通过深度学习模型建立单目RGB图像到3D坐标的端到端映射,虽然能从图片中获取到丰富的信息,但没有中间监督的过程,模型受到图片的背景、光照和人的穿着影响较大,对于单一模型来说需要学习的特征也太过复杂。
  • 先获取2D信息,然后再“提升”到3D姿态
    • 联合2D,3D共同训练(2D信息通常以heatmap来表示)
      • Towards 3D Human Pose Estimation in the Wild (ICCV 2017)
      • 3D Hand Shape and Pose Estimation from a Single RGB Image (CVPR 2019)
      • 需要复杂的网络架构和充足的训练样本。
    • 直接用预训练好的2D姿态网络,将得到的2D坐标输入到3D姿态估计网络中(得益于2D姿态估计较为成熟)
      • Simple Yet Effective Baseline (ICCV 2017)
      • 3D human pose estimation in video with temporal convolutions (CVPR 2019)
      • 2D姿态网络: Hourglass (ECCV 2016), CPN (CVPR 2018)
      • 优点
        • 减少了模型在2D姿态估计上的学习压力
        • 网络结构简单,轻量级
        • 实时性,快速
        • 训练快,占用显存少
      • 缺点
        • 缺少原始图像输入,可能会丢失一些空间信息
        • 2D姿态估计的误差会在3D估计中放大
  • 为什么要先进行2D估计再进行3D估计?
    • 因为基于检测的模型在2D的关节点检测中表现更好,而在3D空间下,由于非线性程度高,输出空间大,所以基于回归的模型比较流行。

 

数据集

目前,3D姿态估计的主要瓶颈是缺少大型的室外数据集,并缺少一些特殊姿态的数据集(如摔倒, 打滚等)。这主要由于3D姿态数据集是依靠适合室内环境的动作捕捉(MOCAP)系统构建的,而MOCAP系统需要带有多个传感器和紧身衣裤的复杂装置,在室外环境使用是不切实际的。因此数据集大多是在实验室环境下建立的,模型的泛化能力也比较差。

Human3.6M (2014)

 

 

监督方法

  • 弱监督: 不直接用标签,而用其他信息计算Loss
    • 深度图、点云、网格、GAN、3D投影到2D
  • 半监督
    • 3D投影到2D
  • 自监督
  • 全监督

视频序列的优点

  • 当前帧有遮挡的时候,可利用相邻帧的完整性解决这个问题
  • 由于单独预测每个帧的3D姿态时,每个帧中的结果与其他帧无关,会导致输出不连贯,带有视频抖动
  • 单张图片包含的深度信息是有限的,网络可以从序列中挖掘到更丰富的深度信息
  • 一张2D图片可以对应无穷多个3D姿态,让模型“多看”同个视角不同时间人的图片,可以减少深度模糊性,缩小3D姿态的空间范围

 

3D形态估计

问题

人体姿态重建:从图片或视频中重建或恢复人体姿态的3D模型

3D形态的表示

  • 网格: 由三角形组成的多边形网格
  • 深度图: 每个像素值代表的是物体到相机xy平面的距离
  • 体素: 三维空间中的一个有大小的点,一个小方块,相当于是三维空间中的像素
  • 点云: 某个坐标系下的点的数据集。点包含了丰富的信息,包括三维坐标xyz、颜色、分类值、强度值、时间等

SMPL(A Skinned Multi-Person Linear Model)

  • 0
    点赞
  • 4
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值