UE&Maya live link
教程链接:https://www.bilibili.com/video/BV1xP4y1w7Dt
这个教程可以实现MAYA和UE的联动,同步摄像机序列和人物骨骼绑定,用maya来K动画同步到UE中,但我不知道maya k动画会不会比UE方便,所以不确定有没有用,但是先mark一下。
Deep Motion免费的动作捕捉网站
(每个月有只有20s的试用时长,只能处理10s数据…所以要花点钱)
教程链接:https://www.bilibili.com/video/BV1VL4y137p1/?spm_id_from=333.788
网站地址:https://www.deepmotion.com/
可以把免费的视频转换为动作
输入视频要求:
- 最大1980x1080
- 人体都能看到,关节暴露,与背景对比度好。
- 相机距离拍摄对象6-20英尺,紧身图案服装,无遮挡。
- 无卡通人物
- 没有宽松的衣服
- 禁止多人
- 无物体遮挡
- 没有纯色的衣服
教程链接:如何拍摄合适的视频?
https://www.bilibili.com/video/BV1n34y1Z7it/
- 登录网站上传视频
- 勾选Physics Filter和Root Joint at Origin,点击Create,然后等待,可以预览效果,如果不行就得重录,再下载。
- 打开UE,拖入刚刚下载的动画文件(选没有Tpose的那个),勾选Animation->Import Animation。自动生成骨骼。
- 进行动作重定向(之前搞过),但DeepMotion生成的没有骨骼映射,所以需要将骨骼映射文件复制粘贴到工程目录内容文件夹中,再加载选择没有root的那个映射文件。 要记得在右边把Mesh里的,应用到资产。
- 然后DeepMotion是Tpose,动画重定向需要两边初始Pose相同,所以调整一下姿势。这里调整Metahuman的。
- 可以手动调节upperarm_l,upperarm_r,lowerarm_l,lowerarm_r的旋转数值为0。upperarm_l,upperarm_r(-25°, 7°,0°)。手指再都调平(具体数值需要自己取调哈~不要完全参照这个)。
面部捕捉
教程链接:https://www.bilibili.com/video/BV1JL4y1g73W/?spm_id_from=333.788
- UE:打开Apple ARKit,Apple ARKit Face Support,live link插件
- IPAD或Iphone:下载Live link Face,点击设置->Live link->添加本机IP地址(win+R输入cmd,命令行输入ipconfig查看),还需要再设置中打开流送头部旋转。
- UE:选择场景中人物,Default->Link Face Subject->选择Ipad,Link Face Head(控制头部移动)
【如何变为序列?UE 】
- Windows->Cinematics->Take Recorder
- 将metahuman拖入镜头试拍录制器,运行并开始录制
- 新建一个动画序列,拖入Bp_Bernice,删除脸部ControlRig,进行播放。
【如果前面有选择录制人物头部的动作,这里会发现头没有动。因为头是和脖子绑定的】
- 新建一个动画蓝图
- 新建一个人物蓝图,创建skeleton mesh做脸,链接原先的人物脸部骨骼,然后把其他东西都复制过去,保存一下,层级保持一样就好。