每周论文精读05-A2J:AnchortoJointRegressionNetwork for 3D ArticulatedPoseEstimation from a SingleDepthImage

https://download.csdn.net/download/Jason_____Wang/16502249

论文精读——A2J: Anchor-to-Joint Regression Network for 3D Articulated Pose Estimation from a Single Depth Image

标题比较长,已经打不完了。。 所以题目格式有些变形,望谅解。

上周尝试做了一下代码复现的方向,因为生活琐碎以及清明假期,文献精读的工作有所耽误,本周继续做文献精读工作,初步选取的目标是来自华科的 A2J 网络模型 (ICCV 2019)

选取这篇文章的理由有以下几个:

  1. 目前在以数据集为导向找项目与代码,本篇A2J有开源的代码,并且用了多个手部RGBD 的主流数据集,如:
    NYU Hand Pose Dataset

ICVL Hand Pose Dataset

HANDS 2017 dataset

因为目前在数据集下载工作方面遇到很多问题(缺乏经验),所以当务之急是找一个能够复现(要求代码开源且数据集主流)的文章进行阅读,从这个角度来看本篇文章是不错的选择。

  1. 在2019hand estimation挑战中,本篇文章夺得了冠军的头衔,并且目前在上述的三个数据集中也有着较为不俗的表现,因此是一篇值得借鉴的文章

  2. 文章貌似篇幅不长(误)

废话不多说,进入正文部分了:
#############################################################################

文章来源

题目:A2J: Anchor-to-Joint Regression Network for 3D Articulated Pose Estimation from a Single Depth Image

A2J:基于单深度图像的三维关节姿态估计的锚-关节回归网络

引用:[1] Xiong F , Zhang B , Xiao Y , et al. A2J: Anchor-to-Joint Regression Network for 3D Articulated Pose Estimation from a Single Depth Image[J]. 2019.

链接&下载地址:

百度学术:https://xueshu.baidu.com/usercenter/paper/show?paperid=165g0x809m2s0630ag4b0eh09p291536&site=xueshu_se

论文地址: https://arxiv.org/abs/1908.09999v1

论文我也已经下载好上传到了CSDN中,可以点下方直接下载:
》》》论文连接《《《

一些相关连接:

开源代码:

https://github.com/zhangboshen/A2J

性能比较(paper with code):

https://www.paperswithcode.com/paper/a2j-anchor-to-joint-regression-network-for-3d#code

文章简介

内容简介:

A2J: Anchor-to-Joint Regression Network for 3D Articulated Pose Estimation from a Single Depth Image

A2J:基于单深度图像的三维关节姿态估计的锚-关节回归网络

For 3D hand and body pose estimation task in depth image, a novel anchor-based approach termed Anchor-to-Joint regression network (A2J) with the end-to-end learning ability is proposed. Within A2J, anchor points able to capture global-local spatial context information are densely set on depth image as local regressors for the joints. They contribute to predict the positions of the joints in ensemble way to enhance generalization ability. The proposed 3D articulated pose estimation paradigm is different from the state-of-the-art encoder-decoder based FCN, 3D CNN and point-set based manners. To discover informative anchor points towards certain joint, anchor proposal procedure is also proposed for A2J. Meanwhile 2D CNN (i.e., ResNet-50) is used as backbone network to drive A2J, without using time-consuming 3D convolutional or deconvolutional layers. The experiments on 3 hand datasets and 2 body datasets verify A2J’s superiority. Meanwhile, A2J is of high running speed around 100 FPS on single NVIDIA 1080Ti GPU.

针对深度图像中的三维手和人体姿态估计问题,提出了一种具有端到端学习能力的基于锚的联合回归网络(A2J)方法。在A2J中,能够捕获全局局部空间上下文信息的锚定点被密集地设置在深度图像上,作为关节的局部回归。它们有助于以集成方式预测关节的位置,提高泛化能力。提出的三维关节姿态估计方法不同于现有的基于FCN、3D-CNN和基于点集的编码器-解码器。为了发现指向某一节理的信息锚定点,本文还提出了A2J的锚点建议程序,同时采用二维CNN(即ResNet-50)作为骨干网络驱动A2J,而不使用耗时的三维卷积或反卷积层。在3个手部数据集和2个身体数据集上的实验验证了A2J的优越性。同时,A2J在单个NVIDIA1080TIGPU上的运行速度高达100fps左右。
(上面的仅是摘要与摘要翻

  • 2
    点赞
  • 4
    收藏
    觉得还不错? 一键收藏
  • 1
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值