前言
本文是2019年的CVPR,内容主要是视频中的姿态估计。本文的主要思想是:2D姿态估计+视频中的时序信息=3D姿态估计。且效果好于同时期所有的3D姿态估计模型。
技术理解
开始先放出网络结构。采用的是Res-Net的网络结构。需要注意网络的需要是一组2D pose的坐标。
这里我主要说一下该文中用到的重要方法,网络结构不进行讲述。
模型思想
2D到3D,3D到2D。预测出的2D坐标转化为3D坐标后,再将预测的3D坐标反映射为2D坐标,用映射后的2D坐标与转化前的2D坐标进行比较。
如何3d到2d
1.时序信息
因为一个2D点对应多个3D点,因此需要利用时序信息来帮助区分这些3D的坐标点。这里采用的是空洞卷积。因为阅读论文发现空洞卷积经常被使用到,这里用两张图帮助理解什么是空洞卷积。
普通卷积:
空洞卷积:
使用空洞卷积能处理需要的过去和未来帧的信息。同时还能降低预测后视频的抖动,增加视