虚拟数字人的表情动作这么丰富,是怎么实现的呢?
我们都知道虚拟数字人是通过3D建模实现的人物外观形象,而骨骼和肌肉的绑定情况决定了模型后去的肢体动作和面部表情的自然度和流畅性。目前基本都是采用骨骼绑定和混合变形绑定两种主流方式,而驱动分为真人驱动和智能驱动两种。真人驱动,我觉得是以苏小妹、AYAYI、Ling、柳夜熙为代表的的这类,他们都是通过动作捕捉技术采集真人演员的动作和面部表情数据在整合到3D模型上。
在这里,这些年,随着技术进步,虚拟数字人的面部表情也越来越精细化、微妙化、真实化。随着面部表情动作捕捉相机的引入使用了,真人演员的将虚拟数字人的人物进行演绎,然后采集数字信息,设计一定的深度学习指令,3D模型在识别到指令时候,会作出相应的表情动作。随着人工智能的发展,虚拟数字人会逐渐从识别指令到理解对话意思在进行指令判别再作出一定的反馈动作。比如笑这个动作,如果我们真人会有很多种,就算是微笑也有很多类型,那么虚拟数字人,在经过真人演员的面部表情信息采集以后,通过多次练习,将表情应用到不同的场景中去。比如尴尬的微笑,友好的陌生人微笑等等。
当然也存在实时捕捉的虚拟数字人,这种即时传输的动作在之前的影视表演中的动作捕捉中提到过。
关于面部表情动作捕捉相机,北京欧比邻·奥视动捕自主研发的HM面部表情动作捕捉相机可以了解一下。
HM1210-D3面部表情捕捉相机用于人脸表情的制作,广泛应用于影视特效和AAA游戏制作。 采用双目相机采集图像可以全面精确的获取无标记点的面部表情数据,通过网络接口可以实时预 览图像釆集效果,表演完毕后可以快速将采集数据转移到工作站中进行后期处理。通过处理软件 可将表情数据导入Motion Builder. FaceRob