最佳 AI 动作捕捉 2021 - OpenPose 与 DeepMotion

AI动作追踪:OpenPose vs Deep Motion - 无需动作捕捉服,单摄像头实现!

本文比较了两种无需动作捕捉服,仅需单摄像头就能实现动作追踪的 AI 方案:开源的 OpenPose 和付费的 Deep Motion。

OpenPose 作为最受欢迎的开源方案,在 Github 上拥有超过 21.6k 的星标。许多动作追踪研究和项目,例如 Free Mocap, Easy Mocap 和 Frank Mocap,都基于 OpenPose。虽然这些项目有各自的功能,但 OpenPose 作为基础,拥有最完善的功能和最优的性能。

Deep Motion 则是一个付费服务,提供云端计算,无需用户拥有高性能电脑即可进行动作追踪。它提供免费试用和付费订阅服务。

两者对比:

  • Deep Motion:
  • 优点: 云端计算,无需高性能电脑,操作简单,可生成 BVH 等 3D 文件。
  • 缺点: 需要付费,在线渲染视频可能存在延迟,3D 引擎稳定性有待提高。
  • OpenPose:
  • 优点: 完全免费,开源代码,可定制化。
  • 缺点: 需要高性能电脑,设置复杂,仅生成 2D 注解,无法直接生成 3D 文件,需要额外的工具和配置。

测试结果:

作者将 OpenPose 和 Deep Motion 的渲染视频进行对比,发现两者在基本动作上表现相似。Deep Motion 的在线渲染视频存在延迟,但使用 BVH 文件导入 Blender 后效果更佳。OpenPose 在骨盆部位存在不稳定性,即使在静止状态下也会上下移动。

总结:

Deep Motion 对于没有高性能电脑的用户来说是一个更便捷的选择,但需要付费。OpenPose 则适合有编程基础和高性能电脑的用户,可以免费使用并进行定制化开发。选择哪个方案取决于用户的需求和预算。

本视频由DeepMotion赞助,立即访问DeepMotion,体验他们令人惊叹且实用的AI动作捕捉服务!https://www.deepmotion.com/本视频主要比较免费和付费的AI动作捕捉服务。我认为我们缺乏对当前SoTA(最先进)研究和商业方法之间对比的见解。因此,我决定接受这项赞助并制作关于它们的视频。在这个视频中,你会了解当你接触到这两种服务时会得到什么。视频中有一些必要的说明,但我保证它仍然信息量很大,希望你会觉得有用!如果有人更精通WSL2或OpenPose,请告诉我们如何将其导出到BVH。在任何地方私信我,如果你的教程有效,我会在这里链接你的知识。OpenPose[GitHub] https://github.com/CMU-Perceptual-Computing-Lab/openposeMocapNET(我一直说MotionNET哈哈哈)[GitHub] https://github.com/FORTH-ModelBasedTracker/MocapNET

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

bycloudAI

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值