去年底,一个叫做绊爱(Kizuna AI)的虚拟偶像上线国外视频网站YouTube,凭借可爱的形象和甜美的声音瞬间圈粉无数。在无数宅男为之倾倒的背后,这种能够与不雅观众进行实时互动的“人工智障”,又是如何炼成的呢?
为了搞清楚这个问题,我们查阅了大量的干系资料并对爱酱这一虚拟形象的制作过程进行了推演,虽然无法担保与真实的制作过程完备同等,但大致的套路是绝逼不会错的。
那么问题来了,她真的是人工智能吗?
NoNoNo!
虽然爱酱始终流传宣传自己是“Super AI”,但实在,这只是官方对付绊爱(Kizuna AI)这一虚拟形象的“设定”而已。实际上,爱酱的制作过程,大略来说,紧张包括以下三个要素:
①声优做动作+配音+语音识别对口型
②由专人掌握的丰富的面部动态表情包
③以动捕为核心的“动作捕捉系统KiLA”
而在解释这三点之前,首先我们要明确的一点便是,爱酱的视频或是直播,实在只是一种
三维动画!
这一点,从Kizuna AI的官网上就可以印证。Kizuna AI表示,爱酱这一虚拟形象的模型由MMD制作而成,感兴趣的大胸弟可以移步其官网进行下载。
而要让这个由MMD制作的“爱酱”动起来,则须要用到下面这套可以对动作进行实时捕捉并仿照的动作捕捉系统KiLA(核心)!
首先,须要由对“爱酱”这一虚拟形象进行配音的声优小姐姐穿上名为“Perception Neuron”的惯性动作捕捉设备(由海内厂商诺亦腾供应);
然后,在经由几个步骤的动作校准之后,爱酱就可以根据声优小姐姐所做出的动作活灵巧现地涌如今屏幕上;
末了,在Unity的环境中为已经完成动捕校准的“爱酱”建立虚拟摄像机,就可以从不同的角度不雅观察这个传说中的“人工智障”啦!
而将这一图像进行捕捉,或剪辑成视频、或直接推流并开启直播,就可以像往常一样见到“爱酱”啦!
既然爱酱的声音和动作都是靠背后的声优小姐姐“演出”出来的,那么,爱酱各种智障的表情又是如何制作出来的呢?
起初,我们预测爱酱的表情是由FaceRig或类似的图像识别软件通过捕捉声优小姐姐面部表情进行实时演示,比如说这样:
但实在,爱酱的所有视频和直播都没有利用类似的技能!
在KiLA的官方演示视频中,我们创造,爱酱丰富的表情实在是官方提前为她准备的一大堆“表情包”,在声优小姐姐进行配音并做出某些动作时,爱酱眼部的表情须要由另一位事情职员掌握:
通过手柄掌握爱酱的眼神、视线及其他眼部表情
而爱酱的嘴型,则是根据语音识别技能自动进行匹配(目前该技能已十分成熟)。
以是说,我们所喜好的人工智障爱酱,实在是由两个人共同协作来完成的!
这也阐明了为什么爱酱在很多时候的表情都这么“智障”了(感情根本就不是一个人)!
看到这里,还有人会认为爱酱是一种人工智能吗?
作为一个老司机,我可以非常明确地见告你:爱酱的确是“人工”的,但她并不“智能”!
不过,这并不妨碍大家对爱酱这一虚拟形象的喜好!
新浪声明:新浪网登载此文出于通报更多信息之目的,并不虞味着赞许其不雅观点或证明其描述。