该技能平台被称为“Sora”。
推出ChatGPT一年多后,美国人工智能公司“开放人工智能研究中央”(OpenAI)发布将推出视频天生模型Sora。
根据OpenAI的先容,Sora可以根据文本指令制作长达60秒的视频,个中包括“详细的场景、繁芜的镜头运动和多个充满活力的角色”。

这是OpenAI首次进军人工智能视频天生领域,Sora还没有正式对外发布,只是在社交媒体上发布了数个视频作品作为预报。
预报视频得到了浩瀚夸赞评论,但也不乏质疑担忧之声。
有人担心今后难以辨别视频真假,也有人担心随着技能的快速发展,自己的事情将会被人工智能取代。

近日,新京报对话美国密歇根州立大学丹佛分校打算机科学系主任史蒂夫·比蒂(Steve Beaty),比蒂在打算机网络理论和实践领域都有广泛的背景。
谈及Sora的出身,比蒂认为,Sora增加了图像的真实感,可以在场景之间平滑过渡,是一个非常引人瞩目的产品。

针对外界对人工智能技能将进一步模糊真假界线,乃至造成深度假造的担忧,比蒂指出,这就像打开一个“潘多拉盒子”,得到了人工智能技能,其他潜在风险也随之涌现。
面对一个难辨真假的天下,公众年夜众不应轻易对网络信息作出判断,须依赖知识找到多个信源。
其余,问题的根源中也有办理问题的方法,人们也可以利用人工智能来检测信息是否由人工智能天生。

专访AI专家当世界因AI真假难辨不应随便纰漏对收集信息作判断

对话美国密歇根州立大学丹佛分校打算机科学系主任史蒂夫·比蒂(Steve Beaty)。
地球连线出品

“Sora或不会对视频生产行业产生太大影响”

新京报:人工智能公司OpenAI公布了一种新的人工智能系统Sora,该系统可以根据用户的文本提示创建高质量逼真的视频。
Sora并不是首个类似产品,谷歌、Meta等公司都有类似技能。
与它们比较,Sora突出的特点有哪些?

比蒂:Sora明显提高了(天生视频内容的)标准,增加了保真度,提高了像素。
OpenAI还有其他产品,例如DALL-E3,但这仍针对的是图片。
Sora增加了图像的真实感,在场景之间平滑过渡,这些都在Sora中得到了实现。
我们在研究之后会创造,Sora是个非常引人瞩目的产品。

2月20日,新京报对话美国密歇根州立大学丹佛分校打算机科学系主任史蒂夫·比蒂(Steve Beaty)。
图/地球连线截图

新京报:Sora目前还没有对"大众年夜众开放,但已有不雅观察人士认为Sora可能代表人工智能的重大进步。
你如何看待Sora给视频生产行业带来的机遇和寻衅?

比蒂:最明显的一点是,现在可以创作出在10年、20年前不可能完成的电影。
我们可以对想要的电影画面进行描述,然后Sora可以帮助呈现。
我虽然不是视频生产行业的专家,然而我想强调的是,许多不雅观众紧张关注的都是故事情节,而我不认为Sora背后的技能将会对故事情节产生多大影响。

我们确实看到了这项技能基于故事情节对图像创作能力的影响,但绝大多数引人瞩目的图片、电影以及视频都是基于某个人撰写的故事情节,我们相信这些情节并与之共情,让自己沉浸个中。

我不认为自己能写出一个足以转换成视频的好故事。
如果其他有创造力的人,撰写了这些引人入胜的故事,并通过Sora或其他技能表达出来,大概这是件好事,即便没有数百万美元身家,他们也有能力创造性地表达自己。

例如当我们不雅观看电影的时候,重点永久是故事情节而不是殊效。
现在我们可以把视频做成任何我们想要的样子,行业里也早就有了绿幕以及其他背景殊效,但如果这不是一个好故事,那么没人会在意别的这些。

“人工智能技能险些不可能不被滥用”

新京报:正如你所说,天下越来越担心深度假造可能产生的影响。
天下经济论坛发布的《2024年环球风险报告》将人工智能产生的缺点信息和虚假信息列为2024年天下面临的最重大风险之一。
你如何看待人工智能技能将网络上本就模糊的真假界线变得愈发难以分辨?

比蒂:从区分信息、虚假信息和缺点信息的角度来看,这是一个非常重大的问题。
例如,现在Sora已经将技能公布给所谓的“红队”(由“缺点信息、仇恨内容和偏见等领域的专家”对模型进行对抗性测试以评估危害或风险),接下来“红队”要想办法评估:如何破解它?它的缺陷是什么?若何能让视频看起来非常真实?Sora也表示他们会用类似水印的工具来标记由他们制作天生的视频,用户可以借此辨别这个特定的视频不是真的,但并不是所有公司都会在产品上打上水印。

在美国还有拿"大众年夜世人物取笑的文化历史,深度假造也成了取笑他们的一种新办法。
网络上有许多不同的软件,任何人都可以去一个类似网站,创造属于他们的深度假造的音频及视频。

有鉴于这种情形,也展开了相应立法行动。
我所在的科罗拉多州正在推进关于候选人选举深度假造的法案,个中包括如果分发含有与选举职位候选人有关的深度假造信息的通信,可以履行民事惩罚。
我们须要确保选举是自由和公正的,从中找到界线,不能让那些不是候选人的人假装他们是候选人,或者让人们假造候选人说他们从未说过的话,这真的非常主要。

OpenAI将发布人工智能文生视频模型“Sora”。
图/IC photo

新京报:即便人工智能公司将软件公开给“红队”,试图打造工具监测虚假内容,这可能做到让技能完备不被滥用吗?

比蒂:险些不可能。
我们称之为“潘多拉的盒子”,打开盒子后,我们拥有了视频天生等系列技能,我们不可能回到过去了。
打开人工智能这个盒子后,可能有公司选择不遵照这些道德和伦理标准,这是我们必须接管并融入生活的事情之一——你不能大略相信你所看到的,不能轻易相信单一信源。

新京报:作为普通人,我们该当如何应对人工智能产品可能带来的风险?

比蒂:简而言之,我们现在很难知道该相信什么。
比方说,10年前我们就已经不相信照片了,但我们相信视频,由于它是移动的,这类内容很难假造。
现在我们不仅不相信照片,也不相信视频,任何人都可以假造它们。

如何判断事实原形,这个问题在两三千年前就已经被提出,古人与我们在同样的问题上挣扎,这并不是什么新问题。
虽然对付社会上的很多人来说,新科技让人们更难以识别虚假信息,这并不是说完备不可能识别出它是虚假信息。

我们仍须要依赖知识,例如讯问自己这个人该当给我打电话吗?这是普通人会在视频中揭橥的辞吐吗?此外,对付网络上的信息,我们须要找到多个信源,去找那些花韶光审查内容的信源。
如果只是一个来源,一个社交媒体网站,无论是哪一家,他们都无法审查上传到其网站上的所有信息,并确保所有信息都是精确的。

面对海量信息,我们也须要慢下来,等待一两天的韶光,看看事情是如何发展的。
其余有一个很有趣的地方在于,问题的根源中也有办理问题的方法,有许多网站可以利用人工智能来确定一个特定的视频、音频以及照片是否由人工智能合成。

“目前人工智能监视事情只触及了表面”

新京报:由于潜在风险的存在,人工智能监视事情也提上了日程。
2023年召开了首届人工智能安全峰会,欧盟通过了环球首部人工智能法。
你如何评价目前环球对付人工智能利用的监管水平?接下来还须要做哪些事情?

比蒂:在人工智能监管方面的事情,我们只触及了表面。
根据我的履历,技能总是领先于监管。
任何一种技能,包括电视、电话乃至医疗技能,都是技能先行,随后监管才跟上脚步。
在人工智能领域,我们也在经历千篇一律的事。
无论是从国家层面还是州层面,他们都不太知道该当如何监管一种全新的技能。

例如,美国《通信规范法》第230条款中规定做事供应者(脸书、图片墙等)对第三方在平台上发布的内容不卖力,他们只是供应这些内容。
从现在来看,这是否依然得当?尤其是在(法案颁布)二三十年后,恐怕这些内容不太适用当今语境。
我认为如今的监管至少掉队了十到二十年。

我参加了科罗拉多州一个立法特殊事情组,试图弄清楚深度假造、面部识别以及其他技能的意义和影响,但我们的确远远掉队了,我们所能做的便是尽最大努力制订一套合理的法规,与此同时教诲民众,让他们知道这项技能的能力,即便它目前还没有受到全面监管。

这是我们在很大程度上一贯谈论的问题,即内容是故意义、合理的吗?我是否可以在美国取笑一个"大众人物,答案是肯定的,这种情形常常发生。
那么我是否可以在选举季制作一个公众年夜世人物视频,让他或她在里面说一些他们本没有说的话,我想答案是否定的。
我们有能力做许多我们并不应该做的事情,须要对技能做出故意义的平衡。
接下来问题就变成了,我们如何确保任何技能被用于善,而不是恶。

OpenAI官网上先容Sora的页面。
图/IC photo

新京报:许多媒体将过去一年称为“人工智能之年”,也有不少词典的年度词语都与人工智能干系。
你会如何形容人工智能在2023年取得的进展?

比蒂:人工智能已经发展了很长一段韶光,从实质上讲,人工智能早在20世纪80年代就开始崭露锋芒,但受到打算机硬件能力的限定。
迈入2020年后,图形处理器等背后的硬件能力终于赶了上来,彷佛在溘然之间,它开辟了广阔的视野,人类可以将其运用于笔墨、音频以及制作图像逼真的视频。

2023年以及2024年是这些技能从理论进入实践的年份,从只有学者利用高功率机器才能完成相应技能到险些任何人只要拥有一部连接网络的电脑,就可以制作各种各样的图像、视频与音频。

其余一种须要把稳的情形是,不是特指Sora,类似人工智能技能都可以实现深度假造。
在现在这个阶段,深度假造已经成为人工智能机器学习中非常主要的一个方面,所有人都可以制造出某一个人的复制图像,让他们完美地说出我们想让他们说的话,这是外界的一个紧张担忧。

我正在科罗拉多州立法委员会研究深度假造,尤其是它们涌如今选举周期时意味着什么,这种分外的技能肯定会对此产生影响。
我还想提示的一点是,这并不是什么特殊新鲜的事,多年来我们一贯有修正图片的技能,还有其他办法可以在选举中向"大众发布缺点信息。

新京报:谈到人工智能,一个总会被提及的问题是,人工智能是否会在未来取代人类的事情。
长期而言,你如何看待人类与人工智能之间的关系?

比蒂:我相信电脑有一天会变得像人一样聪明,而且它们还没有任何物理形式上的限定。
我们所谈论的这个机器拥有的晶体管数量大约相称于人类的神经元数量,它为什么不能变得更聪明呢?它没有任何物理限定,只有编程限定。
在我看来,在不久的将来,电脑当然会变得更加聪明、智能。
而这意味着什么?是否意味着它们将取代一些事情?答案是当然的。
它们将从事一些不须要更高水平人类创造力的事情,这是毫无疑问的,这可能也是一件好事。

也便是说,它很可能把人类从目前的事情中解放出来,去做主要的事情。
我不认为将人类的创造力开释到以前从未涉足的领域有何负面影响。
假设有人有一个很棒的剧本,他可以和Sora互换,创造一部电影,让我们所有人都从中受益,这没什么不好的地方。

当然,那些事情可能受到人工智能威胁的人,个中也包括我自己,我们进一步熟习和利用人工智能是非常主要的。
我同样会在课上鼓励人们在作业和论文中利用人工智能,须要强调的是,他们须标注引用来源,包括利用ChatGPT等技能的内容,做到学术严谨。

新京报 栾若曦 刘婧瑜

编辑 张磊 校正 王心