面捕表情捕捉头盔可以用于捕捉真人的面部表情,从微小的皱纹到大的脸部肌肉运动,通过面捕头盔,都可以实时转化到虚拟角色上。
在元宇宙浪潮下,围绕虚拟人的应用场景和时长变得愈加多元,人们对虚拟人的精度不再仅限于简单的驱动起来,需要虚拟人拥有自然流畅、丰富的表情运动,而这背后需要一个高精度表情捕捉技术支持。
广州虚拟动力自研算法推出了AH面捕表情捕捉头盔,满足用户多元化、复杂的表情捕捉需求,不仅可以用于UE、Unity、metahuman等引擎中实时通过真人穿戴AH面捕头盔进行表情捕捉,赋予虚拟人生动、灵活的面部表情,还可以在三维建模中的表情制作中,直接使用AH面捕头盔插件,在maya中实时表情捕捉驱动虚拟人。
建模师可以通过AH面捕表情捕捉头盔,在maya软件中实时表情捕捉驱动虚拟人,从实时表情捕捉中检查模型表情制作中,是否符合面部细节的还原度以及表现效果,这种表情捕捉方式,可以让建模师在表情制作中不再是凭借经验进行调整模型的表情制作参数,可以通过真人表情捕捉模拟出虚拟人最优状态下的面部表情,通过AH面捕表情捕捉头盔为3D模型表情制作,可以极大缩短了三维建模的制作流程。
广州虚拟动力AH面捕表情捕捉头盔,适用于ARKIT标准的52个BS绑定和驱动,头盔面捕摄像头一体式设计,使面捕头盔远轻于同类产品,全套AH面捕头盔仅280g,并且无需网络即可实现表情捕捉,让用户便捷、快速上手使用AH面捕头盔。
未来,广州虚拟动力将继续革新表情捕捉技术,为更多行业提供高性价比的面捕头盔,让更多领域通过AH面捕头盔实现高效率的制作虚拟人、驱动虚拟人!