转载请注明作者和出处: http://blog.csdn.net/john_bh/
CVPR 地址:Category-Level Articulated Object Pose Estimation
作者及团队:弗吉尼亚理工学院 & 斯坦福大学 & Google
会议及时间:CVPR 2020 Oral
code:https://github.com/dragonlong/articulated-pose
project: https://articulated-pose.github.io/
文章目录
1. 主要贡献
本文针对单一深度图像中关节目标的分类级位姿估计问题进行了研究。我们提出了一种新的分类级别的方法,它能正确地容纳在训练期间未见过的对象实例。我们引入了关节感知规范化坐标空间层次结构(ANCSH)——给定类别中不同关联对象的规范表示。作为实现类内概化的关键,该表示构造了一个规范对象空间和一组规范部分空间。标准对象空间对对象的方向、尺度和关节(例如关节参数和状态)进行规格化,而每个标准部分空间进一步对其部分姿态和尺度进行规格化。我们发展了一个深厚的网络基础 pointnet++,从单一深度点云预测ANCSH,包括部分分割、标准化坐标和规范对象空间中的联合参数。通过利用标准化的关节,我们证明:1)改进了部分姿态和尺度估计的性能使用诱导运动学约束关节;2)相机空间联合参数估计精度高。