AI动作追踪:OpenPose vs Deep Motion - 无需动作捕捉服,单摄像头实现!
本文比较了两种无需动作捕捉服,仅需单摄像头就能实现动作追踪的 AI 方案:开源的 OpenPose 和付费的 Deep Motion。
OpenPose 作为最受欢迎的开源方案,在 Github 上拥有超过 21.6k 的星标。许多动作追踪研究和项目,例如 Free Mocap, Easy Mocap 和 Frank Mocap,都基于 OpenPose。虽然这些项目有各自的功能,但 OpenPose 作为基础,拥有最完善的功能和最优的性能。
Deep Motion 则是一个付费服务,提供云端计算,无需用户拥有高性能电脑即可进行动作追踪。它提供免费试用和付费订阅服务。
两者对比:
- Deep Motion:
- 优点: 云端计算,无需高性能电脑,操作简单,可生成 BVH 等 3D 文件。
- 缺点: 需要付费,在线渲染视频可能存在延迟,3D 引擎稳定性有待提高。
- OpenPose:
- 优点: 完全免费,开源代码,可定制化。
- 缺点: 需要高性能电脑,设置复杂,仅生成 2D 注解,无法直接生成 3D 文件,需要额外的工具和配置。
测试结果:
作者将 OpenPose 和 Deep Motion 的渲染视频进行对比,发现两者在基本动作上表现相似。Deep Motion 的在线渲染视频存在延迟,但使用 BVH 文件导入 Blender 后效果更佳。OpenPose 在骨盆部位存在不稳定性,即使在静止状态下也会上下移动。
总结:
Deep Motion 对于没有高性能电脑的用户来说是一个更便捷的选择,但需要付费。OpenPose 则适合有编程基础和高性能电脑的用户,可以免费使用并进行定制化开发。选择哪个方案取决于用户的需求和预算。
本视频由DeepMotion赞助,立即访问DeepMotion,体验他们令人惊叹且实用的AI动作捕捉服务!https://www.deepmotion.com/本视频主要比较免费和付费的AI动作捕捉服务。我认为我们缺乏对当前SoTA(最先进)研究和商业方法之间对比的见解。因此,我决定接受这项赞助并制作关于它们的视频。在这个视频中,你会了解当你接触到这两种服务时会得到什么。视频中有一些必要的说明,但我保证它仍然信息量很大,希望你会觉得有用!如果有人更精通WSL2或OpenPose,请告诉我们如何将其导出到BVH。在任何地方私信我,如果你的教程有效,我会在这里链接你的知识。OpenPose[GitHub] https://github.com/CMU-Perceptual-Computing-Lab/openposeMocapNET(我一直说MotionNET哈哈哈)[GitHub] https://github.com/FORTH-ModelBasedTracker/MocapNET