本文转载自量子位。
通过一段视频,来重建人脸3D模型,没什么稀奇的。
但是,如果只有测试者的一张静态图片呢?
来自中科院模式识别实验室的博士生郭建珠和他的团队,提出了一种新的密集人脸对齐(3D Dense Face Alignment)方法。
新的3DDFA方法,最关键的核心,是3D辅助短视频合成方法,它能模拟平面内和平面外的人脸移动,将一幅静止图像转换为短视频。
由此来完成模型的识别和训练。
郭同学的这篇论文Towards Fast, Accurate and Stable 3D Dense Face Alignmen,已经被ECCV 2020收录。
3DDFA-V2:一静一动
这其实是作者发布的3DDFA的第二个版本,两年前,团队已经发表了3DDFA的第一版。
新版本具有更好的性能和稳定性。此外,3DDFA_V2集成了快速人脸检测器FaceBoxes,取代了原来的Dlib,同时还包括由C++和Cython编写的简单3D渲染。
3DDFA能做到“动若脱兔”(面部特征识别、对齐):