AAAI论文首发:几何驱动的自监督的人体3D姿态估计方法

徐亦达团队和北理工李侃老师的共同博士生李杨在AAAI 的发表了一篇机器学习论文,本人得到徐老师授权在本站发布论文。

Geometry-driven Self-supervised Method for 3D Human Pose Estimation

论文第一作者:李杨

论文介绍

Geometry-driven Self-supervised Method for 3D Human Pose Estimation

几何驱动的自监督的人体3D姿态估计方法

论文摘要

近年来,基于深度学习的单目人体3D姿态估计吸引了越来越多研究人员的关注。深度神经网络的训练依赖于大量的标注数据,然而人体3D关节点的标注是一项成本昂贵的工作。为了解决此问题,本文提出了一种新的自监督的人体3D姿态估计方法,不同于现有的弱/自监督方法,我们的方法完全依靠于相机几何先验知识,无需任何额外的人体3D关节点标注。我们的方法总体上基于两阶段的框架:人体2D姿态估计和2D到3D姿态提升。为了达到自监督网络训练的目的,我们提出了变换重投影损失,利用多视角一致性信息构建损失函数训练2D到3D姿态提升网络。此外,我们使用人体2D关节点的置信度来整合不同视角的损失,以减轻由于遮挡导致的噪声的影响。最后,我们设计了一个用于训练的双分支网络结构,该网络可以在训练过程中保留人体3D姿态的尺度信息。我们在两个主流的人体3D姿态数据集,Human3.6M和MPI-INF-3DHP,上验证了我们方法的性能,实验结果表明我们方法的性能明显优于最近的弱/自监督方法。

算法框架

实验效果

在两个主流的人体3D姿态数据集,Human3.6M和MPI-INF-3DHP的效果

总结

论文下载:

https://github.com/leon532/Geometry-driven-Self-supervised-Method-for-3D-Human-Pose-Estimation/blob/master/AAAI2020/AAAI-LiY.7454.pdf

或者链接:https://pan.baidu.com/s/1EkTX1MsgYumluPIIJuga9w

提取码:dfzr

不多说了,徐亦达老师团队出品,必属精品,建议下载慢慢看。


评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值