可以看出,绝大多数人都是认同一点的——只有拿出坚实的证据,才能证明你说的便是原形。
将这些证据的说服力排一个序,大概是文本>照片>音频>视频

然而,随着PS的兴起,“照骗”逐渐失落去了人们的信赖,音频和视频已经被视为更可靠的证据来源,但是,在AI入军短视频制作后,事情正在发生着改变。
在未来,人们可能须要处理更多真假难辨的音视频。

AI在视频造假上的进阶之路

在平凡人看来,短视频造假的办法无非便是一些“断章取义”的剪辑罢了。
然而,AI可没那么大略,在短视频“造假”上,它不止要以假乱真,更要无中生有。

你需要理解的AI在视频造假上的进阶之路

常日来说,AI在短视频上造假的办法有以下三种:

1. 低级阶段:移花接木

在短视频“造假术”里,最主要的不是图像的拼接,而是音频的连续性。
想一想,纵然你将奥巴马和特朗普两个人的视频剪辑在一起,想要见告大家他们“同台演出”了,没有他们讲话的声音,厥后果大概就即是N张静态照片叠加而已。

AI正在试图合成人们在实际中从未说过的话,研究职员就曾利用奥巴马的演讲视频演习AI的学习系统,让系统的神经网络,学会如何将各种语音特色与对应的口型联系在一起,天生CGI唇动,在3D姿态匹配的帮助下,将CGI唇动与奥巴马的视频整合在一起。

也便是说,他们能够利用干系音轨假造一段令人难辨真伪的视频。

利用AI系统,用户可以任意编辑人类语音,Adobe曾表示它可以像 Photoshop 编辑图片一样用于调度视频中的发音和对话。
我们现在可以创建政治家、名人、演说家的视频片段,并且不论内容如何。

2. 中级阶段:洗面革心

在这个阶段里,AI就不是合成了,而是对视频里的内容进行编辑。
通过人脸检测和五官识别,对人脸的关键点实时追踪,让人们在动态视频中可以对自己脸进行改造。

这一技能属于动作捕捉技能中的一个分支,叫面部捕捉。
这些脸上的黄点,便是人脸表情变革中的关键点,通过面部追踪,打算机只须要这些信息就能合成表情。

近日,微视就发布了安卓4.4版本,推出了实时美妆、五官重塑等新功能,包括此前已在iOS版本上线的实时长腿、音控邪术功能,也在安卓上同步更新。

视频里扮装都是小儿科了,AI还能在视频里给你换脸呢。
在电影《星球大战外传:侠盗一号》中,技能职员通过捕捉一位当代演员盖·亨利的表情,合成了其余一位已经逝世的演员彼得·库欣,使其再次涌如今了大荧幕上。

3. 高等阶段:无中生有

合成声音尚能理解,合成动作你敢相信吗?

近日,在MIT(麻省理工学院)的论文Synthesizing Images of Humans in Unseen Poses中,研究职员提出了一种模块化的天生神经网络,用从人类运动视频中提取的成对图像和姿势演习之后,它能够为一个人合成出没做过的新姿势。
而且,这个模型在没有经由刻意演习的情形下,能够天生一段连续的视频。

也便是说,单凭一张照片,AI就能随意摆布照片中的人,使人物作出一系列动作,视频的合成非常自然。

(图为该技能合成的网球运动视频 GIF来源:量子位 公众号)

这当然只是新技能的冰山一角,我们很难对当代人工智能的视频处理技能,做出全面的概述,但我们总能从中找出一些故意思的运用。
例如:从一张 2D 图片中创建 3D 面部模型,改变视频中的光源和阴影,在总统选举直播中让特朗普变成光头等等。

假造与证伪的技能总是交互上升

不得不说,AI确实具有很强的视频造假能力,但我们也逐渐意识到了视频造假的危害。
随意放在网上的视频和声音都须要我们去负责辨别,如果有造孽分子利用该技能进行信息诱骗,我们虽然不是权贵,但也经不起丢失。

尤其在新闻业,一旦人们知道目前有假造的视频和音频在传播,纵然他们看到的是真实视频,也会开始产生疑惑。
以是,如果AI能够让我们像处理图片一样轻松处理音频、视频内容,这其实在某种程度上削弱了媒体的可信度。

幸运的是,道高一尺,魔高一丈,假造与证伪的技能总是交互上升。
这便是一场“武备竞赛”。
AI让越来越多的人都有能力进行假造,但研究职员也不断在开拓更加精密的技能来增强音频、图片和和视频的鉴别。
通过不断增加造假难度,使得造孽分子造假的本钱和技能哀求越来越高。

现在,鉴别AI所做的假造和处理实在并不难,模糊处理是一种最常见的方法,低分辨率就会让它“一看便是假的。

除了画质,还有画幅的甄别。
在短视频里,画面里的一点改动凭借人的肉眼是很难识别的。
在 50% 的情形下人类是可以精确区分的,而且大部分是随机预测。
当AI通过大量的深度学习后,卷积神经网络可以在 87 %到 98 %的情形下,精确区分视频画面里修正过的和未修正过的图像。

德国慕尼黑技能大学的研究职员还开拓了一种名为 “XceptionNet” 的算法,它能快速创造发布在网上的假造视频,除此之外,还可以用来识别互联网上的误导性视频。

这个人工智能算法紧张集成到浏览器或社交媒体插件中,在后台运行,如果它识别出被操纵的图像或视频,它就会给用户发布警告信息,向视频中涉及的职员透露他们被“假造”了。

造假不如造回顾

仔细想一想,“造假”彷佛总是让人有着不好的遐想,尤其是多媒体的造假,更是怎么看都以为恐怖。
然而,还是那句老话,技能是无罪的,有罪的是那些有着邪恶存心的人。

将AI造假术的利用者换一批人,是不是更能物尽其用呢?

有人说,人会经历三次去世亡:

第一次是身体停滞运转导致的生理上去世亡;第二次是举行完葬礼代表你社会位置的消逝;第三次是当天下上没人再记得你的时候,真正意义上的去世亡。

当你的亲人即将离开这个天下的时候,你是否想过用科技的办法,将亲人的音容笑脸化为情绪寄托,换一种形式陪伴在你身边呢?

大概这样,也能让亲人的“第三次去世亡”来得更慢一点。

目前,就已经有人通过语音合成技能记录下了自己的声音,将自己的声音载入了一个智能音箱,以此来确保纵然在自己去世后,亲人也能与自己进行语音交互。
而如果能通过一张照片就换来亲人“维妙维肖”的动态,未尝不是人们一解相思之苦的办法。

AI造假短视频该当是一个不断提升代价的过程,而不是被宵小们所利用。

一方面,AI可以建立丰富的数据库,依赖于深度学习来进行更多运用处景的选择,使得这些在视频里被“复活”的人们,能够在不同的场景里涌现,知足人们的更多情绪需求。
另一方面,将造假变成造回顾,网络某个人的图像和音频素材,为用户个性化建模,实现一对一的影象归属。

结论

实在,我们完备不用把AI造假想得那么坏。
技能不是目的,只是手段,找对了用场,“造假术”也是有情怀的。

【完】

作者:顔璇,"大众年夜众号:智能相对论(微信id:aixdlun)

本文由 @智能相对论 原创发布于大家都是产品经理。
未经容许,禁止转载

题图来自Unsplash,基于CC0协议