鱼羊 发自 凹非寺
量子位 报道 | 公众号 QbitAI
给AI一张毛不易的照片,它自动就能生成一个古风毛大侠。
小姐姐冷艳的气质,可以被还原出一代侠女风范。
也可以探索一下,奥巴马穿越回宋朝是一种怎样的体验……
现在,想在游戏里定制化自己的脸,你可以不用自己花时间琢磨参数了。
熟悉游戏的小伙伴可能认出来了,这一套AI捏脸术,来自网易伏羲人工智能实验室和密歇根大学。
现在,最新相关研究登上了AAAI 2021。
据作者介绍,这个名为MeInGame的方法,可以集成到大多数现有的3D游戏中,并且相比于单纯基于3DMM(3D Morphable Face Model )的方法,成本更低,泛化性能更好。
具体实现细节,一起来看。
方法原理
研究人员将人脸形状和纹理的重建,视作一个自监督的面部相似度测量问题。
首先,对于输入照片,预先训练好的形状重建器会预测其3DMM和姿势系数,并在保持拓扑结果的同时,将3DMM网格转换成游戏网格。
这么做的原因,是3DMM网格的拓扑结构与大多数游戏中使用的网格不同。直接基于3DMM来从单张图像中还原出游戏中的3D人脸,需要大量的人脸纹理数据进行训练,费时费力不说,实验室条件下收集的数据也可能出现泛化不佳的问题。
接着,基于游戏网格,将输入图像解包到UV空间,创建一个粗纹理图。纹理会由一组编码器-解码器模块进行进一步细化。
另外,研究人员还设计了光照归回器。这是一个轻量级网络,由几个完全连接层组成,能根据图像特征预测光照方向、环境光、漫反射、高光等光照系数。
最后,将预测出的形状、纹理和光照系数一起反馈给可微分渲染器,在结果与输入的人脸照片相似的情况下,驱动2D人脸渲染。
研究人员还引入了两个判别器,来进一步改善结果。
具体到数据集的准备方面,这项研究提出了一种低成本面部纹理采集方法:与其他需要多视角图像的方法不同,只使用单视角图像,因此更加容易获取。
步骤如下:
对于输入的人脸图像,使用预训练人脸分割网络检测皮肤区域;
计算输入人脸皮肤的颜色均值,并将均值迁移到模板纹理图(由游戏开发者提供);
根据游戏网格,将输入的人脸图像进行解包到UV空间。
使用泊松混合,将解包后的图像与模板纹理图进行融合。移除头发、眼镜等非皮肤区域,并尽可能利用对称性补齐遮挡区域。
实验结果
所以,网易伏羲实验室&密歇根大学的MeInGame,跟前辈方法们相比有何优势?
从与A Dream of Jianghu、Loomie、ZEPETO等方法的定性比较结果来看,该方法无论是在面容(包括肤色)的还原度上,还是妆面这样的个性化细节上,都要略胜一筹,并且能消除光照和遮挡的影响。
而基于3DMM的方法虽然能够高度还原真实人脸,但其建模不包括完整的头部模型及纹理,很难直接用于游戏环境。
根据论文信息,相关代码和数据集,将会在GitHub上释出。
传送门
论文地址:
https://arxiv.org/abs/2102.02371
GitHub地址:
https://github.com/FuxiCV/MeInGame
— 完 —
本文系网易新闻•网易号特色内容激励计划签约账号【量子位】原创内容,未经账号授权,禁止随意转载。
推荐阅读
谁是李党生?带领中国本土期刊登上国际C位,施一公说他眼光很毒辣
加入AI社群,拓展你的AI行业人脉
量子位「AI社群」招募中!欢迎AI从业者、关注AI行业的小伙伴们扫码加入,与50000+名好友共同关注人工智能行业发展&技术进展:
量子位 QbitAI · 头条号签约作者
վ'ᴗ' ի 追踪AI技术和产品新动态
一键三连「分享」、「点赞」和「在看」
科技前沿进展日日相见~