比如先录制一段音频,这是你的声音。

audio2photoreal 就能根据你的声音,驱动那个 3D 数字人。

Audio2Photoreal技能的实现离不开深度学习、打算机视觉等领域的最新进展。
在深度学习方面,研究团队采取了前辈的神经网络模型,对音频旗子暗记进行特色提取和分类。
在打算机视觉方面,团队则利用了大量的真实人脸和肢体动作数据,对模型进行演习和优化,以确保天生的虚拟人像具有高度逼真的效果。

研究职员提到,该框架可以天生 30 FPS 的“高质量动作样本”,还能仿照人类在对话中“手指示物”、“转手腕”或“耸肩”等不由自主的“习气性动作”。

Meta 开源audio2photoreal经由进程一段音频驱动 3D 数字人

总之,Audio2Photoreal技能为虚拟角色制作带来了革命性的变革,使得音频旗子暗记能够快速转化为高度逼真的虚拟人像。
随着技能的不断发展和完善,相信未来我们将看到更加生动、真实的虚拟角色在各个领域得到广泛运用。
同时,我们也期待着更多的技能创新和打破,为数字化时期带来更加丰富多彩的娱乐互动体验。

GitHub地址:https://github.com/facebookresearch/audio2photoreal

#AI开源项目推举##github##AI技能##3d数字人#