论文了解-3D human pose estimation in video with temporal-conv

本文探讨2019年CVPR上的一项研究,该研究利用2D姿态估计和视频的时序信息进行3D人体姿态估计。通过Res-Net结构和空洞卷积处理时序数据,实现更准确的3D坐标预测,并采用半监督学习增强模型性能。此外,引入骨架长度损失和轨迹网络以优化空间定位和减少抖动。
摘要由CSDN通过智能技术生成

前言

本文是2019年的CVPR,内容主要是视频中的姿态估计。本文的主要思想是:2D姿态估计+视频中的时序信息=3D姿态估计。且效果好于同时期所有的3D姿态估计模型。

技术理解

开始先放出网络结构。采用的是Res-Net的网络结构。需要注意网络的需要是一组2D pose的坐标。
在这里插入图片描述
这里我主要说一下该文中用到的重要方法,网络结构不进行讲述。

模型思想
2D到3D,3D到2D。预测出的2D坐标转化为3D坐标后,再将预测的3D坐标反映射为2D坐标,用映射后的2D坐标与转化前的2D坐标进行比较。

如何3d到2d

1.时序信息

因为一个2D点对应多个3D点,因此需要利用时序信息来帮助区分这些3D的坐标点。这里采用的是空洞卷积。因为阅读论文发现空洞卷积经常被使用到,这里用两张图帮助理解什么是空洞卷积。

普通卷积:
在这里插入图片描述
空洞卷积:
在这里插入图片描述

使用空洞卷积能处理需要的过去和未来帧的信息。同时还能降低预测后视频的抖动,增加视

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值