给AI一张毛不易的照片,它自动就能天生一个古风毛大侠。

小姐姐冷艳的气质,可以被还原出一代侠女风范。

也可以探索一下,奥巴马穿越回宋朝是一种若何的体验……

现在,想在游戏里定制化自己的脸,你可以不用自己花韶光琢磨参数了。

在游戏里还本来身的脸给AI一张照片就行|AAAI 2021

熟习游戏的小伙伴可能认出来了,这一套AI捏脸术,来自网易伏羲人工智能实验室和密歇根大学。

现在,最新干系研究登上了AAAI 2021。

据作者先容,这个名为MeInGame的方法,可以集成到大多数现有的3D游戏中,并且比较于纯挚基于3DMM(3D Morphable Face Model )的方法,本钱更低,泛化性能更好。

详细实现细节,一起来看。

方法事理

研究职员将人脸形状和纹理的重修,视作一个自监督的面部相似度丈量问题。

首先,对付输入照片,预先演习好的形状重修器会预测其3DMM和姿势系数,并在保持拓扑结果的同时,将3DMM网格转换成游戏网格。

这么做的缘故原由,是3DMM网格的拓扑构造与大多数游戏中利用的网格不同。
直接基于3DMM来从单张图像中还原出游戏中的3D人脸,须要大量的人脸纹理数据进行演习,费时费力不说,实验室条件下网络的数据也可能涌现泛化不佳的问题。

接着,基于游戏网格,将输入图像解包到UV空间,创建一个粗纹理图。
纹理会由一组编码器-解码器模块进行进一步细化。

其余,研究职员还设计了光照归回器。
这是一个轻量级网络,由几个完备连接层组成,能根据图像特色预测光照方向、环境光、漫反射、高光等光照系数。

末了,将预测出的形状、纹理和光照系数一起反馈给可微分渲染器,在结果与输入的人脸照片相似的情形下,驱动2D人脸渲染。

研究职员还引入了两个判别器,来进一步改进结果。

详细到数据集的准备方面,这项研究提出了一种低本钱面部纹理采集方法:与其他须要多视角图像的方法不同,只利用单视角图像,因此更加随意马虎获取。

步骤如下:

对付输入的人脸图像,利用预演习人脸分割网络检测皮肤区域;打算输入人脸皮肤的颜色均值,并将均值迁移到模板纹理图(由游戏开拓者供应);根据游戏网格,将输入的人脸图像进行解包到UV空间。
利用泊松稠浊,将解包后的图像与模板纹理图进行领悟。
移除头发、眼镜等非皮肤区域,并尽可能利用对称性补齐遮挡区域。

实验结果

以是,网易伏羲实验室&密歇根大学的MeInGame,跟前辈方法们比较有何上风?

从与A Dream of Jianghu、Loomie、ZEPETO等方法的定性比较结果来看,该方法无论是在脸庞(包括肤色)的还原度上,还是妆面这样的个性化细节上,都要略胜一筹,并且能肃清光照和遮挡的影响。

而基于3DMM的方法虽然能够高度还原真实人脸,但其建模不包括完全的头部模型及纹理,很难直接用于游戏环境。

根据论文信息,干系代码和数据集,将会在GitHub上释出。

传送门

论文地址:https://arxiv.org/abs/2102.02371

GitHub地址:https://github.com/FuxiCV/MeInGame

— 完 —

量子位 QbitAI · 头条号签约

关注我们,第一韶光获知前沿科技动态