向大家安利一篇CVPR 2020的论文 HOPE-Net: A Graph-based Model for Hand-Object Pose Estimation,基于自适应图卷积技术,作者提出了一种称之为HOPE-Net的“人手-物体”姿势估计模型,在这个问题上不仅计算结果精度更高、速度也更快,GPU上达到实时!而且代码已开源。
以下是作者信息:
作者来自美国印第安纳大学和华盛顿大学。
何为“人手-物体”姿势估计?
如下图所示:
向大家安利一篇CVPR 2020的论文 HOPE-Net: A Graph-based Model for Hand-Object Pose Estimation,基于自适应图卷积技术,作者提出了一种称之为HOPE-Net的“人手-物体”姿势估计模型,在这个问题上不仅计算结果精度更高、速度也更快,GPU上达到实时!而且代码已开源。
以下是作者信息:
作者来自美国印第安纳大学和华盛顿大学。
何为“人手-物体”姿势估计?
如下图所示: