在传统的动作捕捉流程中,要想在引擎中查看最终效果,需要先在动捕软件中将录制好动捕数据导入到max,maya,motionbuilder等资源生产工具中,调整动画效果,重定向角色骨骼(也可以先重定向再动捕),然后将动画导出为FBX格式,这样才能导入引擎查看。过程繁琐,无法直观的看到角色动捕数据在游戏中的效果。
随着UE4livelink插件的推出,这项工作流有了极大的改善。通过livelink功能,可以将外部的动捕数据直接流送到引擎中,从而实时查看动捕效果,或者直接用作虚拟形象的直播。并且可以通过引擎内置的序列录制器,将实时动捕数据录制为能被引擎直接使用的动画资源,方便后续使用。无需经过繁琐的导入导出流程,极大的提高了工作效率。
不过因为livelink主要功能是数据传输,所以大部分情况下只能用于动画预览,直接录制出来的动画资源并不是太符合引擎使用规范。如果想通过引擎直接录制动画,或者通过动捕实现一些简单的实时交互功能,那么就需要对livelink传进来的动画数据做一点点修改。
缺少root点的位移信息是问题的核心所在。动捕软件传进来的数据一般是通过盆骨骨骼(hip)记录演员的旋转和位移的。骨骼与动捕服上的标记点对应。在动捕数据的录制过程中,用于标记动画角色在虚拟空间的位置信息的root骨骼并不会移动,因为现实中没有这个数据。