如今,Sora正面向部分成员开放,以评估关键领域的潜在危害或风险。
同时,OpenAI也约请了一批视觉艺术家、设计师和电影制作人加入,期望得到宝贵反馈,以推动模型进步,更好地助力创意事情者。
OpenAI提前分享研究进展,旨在与OpenAI以外的人士互助并获取反馈,让"大众理解即将到来的AI技能新篇章。
Sora模型能够天生包含多个角色、特定类型运动和主体及背景精确细节的繁芜场景。
该模型不仅能理解用户在提示中所哀求的内容,还能理解这些事物在现实天下中的存在办法。
该模型对措辞有深刻理解,能准确解读提示,并天生表达丰富情绪的引人入胜的角色。
Sora还能在单个天生的视频中创建多个镜头,使角色和视觉风格保持准确同等。
比如一大群纸飞机在树林中飞过,Sora知道碰撞后会发生什么,并表现个中的光影变革。
一群纸飞机在茂密的丛林中翩翩起舞,在树林中穿梭,就像候鸟一样。

Sora还可以在单个视频中创建多个镜头,并依赖对措辞的深入理解准确地阐明提示词,保留角色和视觉风格。
但Sora模型当前也存在弱点。
OpenAI称它可能难以准确仿照繁芜场景的物理事理,并且可能无法理解因果关系。
例如,一个人可能咬了一口饼干后,饼干会没有咬痕,玻璃破碎的物理过程可能也无法被准确呈现。
又如“五只灰狼幼崽在一条偏僻的碎石路上相互嬉戏、追逐”,狼的数量会变革,一些凭空涌现或消逝。

此外,模型还可能会稠浊提示的空间细节,例如旁边不分,并且在处理随韶光发生的事宜的精确描述方面也可能存在困难,比如跟踪特定的摄像机轨迹。
如提示词“篮球穿过篮筐然后爆炸”中,篮球没有精确被篮筐阻挡。

这居然是AI生成的OpenAI宣告文生视频模型效果炸裂

技能方面,目前OpenAI透露的不多,大略先容如下:

Sora是一种扩散模型,从噪声开始,能够一次天生全体视频或扩展视频的长度,

关键之处在于一次天生多帧的预测,确保画面主体纵然暂时离开视野也能保持不变。

与GPT模型类似,Sora利用了Transformer架构,有很强的扩展性。

在数据方面,OpenAI将视频和图像表示为patch,类似于GPT中的token。

通过这种统一的数据表示办法,可以在比以前更广泛的视觉数据上演习模型,涵盖不同的持续韶光、分辨率和纵横比。

Sora建立在过去对DALL·E和GPT模型的研究之上。
它利用DALL·E 3的重述提示词技能,为视觉演习数据天生高度描述性的标注,因此能够更虔诚地遵照用户的文本指令。

除了能够仅根据文本指令天生视频之外,该模型还能够获取现有的静态图像并从中天生视频,准确地让图像内容动起来并关注小细节。

Sora是能够理解和仿照现实天下的模型的根本,OpenAI相信这一功能将成为实现AGI的主要里程碑。
一位YouTube博主Paddy Galloway揭橥了对Sora的感想,他表示内容创作行业已经永久的改变了,并且绝不夸年夜。
“我进入YouTube天下已经15年韶光,但OpenAI刚刚的展示让我无言…动画师/3D艺术家们有麻烦了,素材网站将变得无关紧要,任何人都可以无壁垒得到难以置信的产品,内容背后的‘想法’和故事将变得更加主要。
对此,你怎么看?
来源丨OpenAI官网、逐日经济新闻、界面新闻
编辑丨钱家跃