还有人用它创作了科幻大片:

还有大鱼吃小鱼,实现普通摄像头难以拍摄的效果:

较强的灵巧性和视频可控性,一下让人难以分辨虚实,而这些镜头都是靠爱诗科技的AI视频工具PixVerse实现的。
PixVerse继4月更新运动笔刷功能之后,今日又重磅上线了PixVerse V2模型。
V2支持直接天生长达8秒的视频,乃至可以一次性天生1-5个视频片段,并担保风格、主体和场景的同等性。

PixVerse已经率先朝着AI视频天生的同等性方向发力。
这是要进军AIGC短片吗?这次更新的PixVerse V2实力究竟如何?“AI新榜”从角色同等性、想象力、掌握力维度上,第一韶光给各位玩家实测了一番。

一次性生成5个8秒视频用AI做抖音短视频不是梦AI新榜

实测PixVerse新功能:一次性天生5个8秒视频据理解,PixVerse打破了时长技能限定,能单次天生8秒的视频。
但要知道AI视频天生的时长越长越随意马虎“露怯”,涌现瑕疵。
那么,其文本理解能力还能稳定发挥吗?我们先用V2大略测了一下文生视频和图生视频。
文生视频

‍提示词:golden retriever in sunglasses sunbathing on a beach in Hawaii

PixVerse V2版本

PixVerse V1版本从天生效果来看,动物类的表现很不错,几秒内可以动的细节更多,比如狗狗的耳朵,毛发。
虽然动作幅度依旧比较小,但整体视频呈现得更完全,在视频质量以及清晰度上都有明显的进步。
其余,PixVerse V2升级了模型理解和表达能力,在真实性和细节表达上进一步加强。

提示词:A beautiful women is walking towards the camera

PixVerse V2版本

PixVerse V1版本可以看到,人物类镜头方面,画面主体没有涌现特殊大的技能瑕疵,光影效果也做得很好。
比较前一个版本,V2天生的人物动作幅度更大,也更真实。
但遗憾的是,和其他的AI视频工具一样,仍旧是无法理解提示词当中的镜头术语,如“走向镜头”,画面中主体的运动只是大略转了下头。
图生视频图生视频怎么能少得了这张经典梗图:

在图生视频模式下,我们没有输入任何提示词,想看看PixVerse V2的“遐想”能力如何。

PixVerse V2并没有让图中男生变成“渣男”,而是转过分与红衣女孩错过,看多了其他AI视频工具的戏剧效果,PixVerse V2展现的反而有点淡淡的忧伤。
三个人的动作幅度都不大,但难能名贵的是唯一涌现脸部的红衣女孩没有涌现“变脸”,捐躯了戏剧效果但担保了角色的同等性。
比较之下,这张“屋子着火我微笑”的梗图天生效果就比较一样平常了。
转头拜别,但“变脸”速率巨快:

掌握住了变脸,但场景溘然切换:

要说整活,还是AI在行啊。
但总的来说,图生视频参考了我们上传的图片元素,玩梗能力在线,做二创是个不错的选择。
在此前“AI新榜”的短片考试测验,以及大量用户反馈和社区谈论反馈中,AI视频的同等性一贯是一个难题,更不用说单次天生长达40秒的视频片段了,一起看看PixVerse V2的多片段天生能力。
天生多片段40秒视频在PixVerse首页点击右侧“PixVerse V2”,就可以进入多片段天生页面,同样支持文生和图生视频。

在这里,须要我们选择“Scene 1”,输入相应提示词,再添加“Scene 2”,输入第二个场景想要呈现的画面,以此类推,最多添加5个不同的场景后,一次性天生完全片段。
换句话说,便是把短片的视频分镜,通过自然措辞的形式呈现出来。
从官网发布的信息看,在PixVerse V2模式下,5个场景的画面风格都会与第一个场景保持同等。
如果我们还上传了图片,那么这些图片会参考场景1的图片风格进行重绘,担保天生视频风格的同等性。
比如,我们输入的提示词如下:

Scene 1:the panda is playing the violin.Scene 2:It is playing the piano.Scene 3:It is eating the hamburger.

大约等待5分钟旁边,V2一次性天生了长达16秒的视频片段。
可以看到,在视频主体、场景以及画面色调上只管即便保持了同等性,还省去了我们单个片段不断“抽卡”的韶光。

只不过,最终生成的画面在风雅度上还有待提高,依旧会涌现小提琴、汉堡微变形的画面瑕疵。
如果我们对某个片段熊猫的动作、环境、镜头运动不满意,还可以选择更换相应的角色元素,进行二次编辑。

我们连续考试测验一下人物类镜头同等性,将上述提示词中的“panda”换成了“the woman”,测试了一波V2的角色掌握能力。
没想到的是,PixVerse V2直接规避了短板,天生了全是近景特写的片段,压根没涌现人物。

考虑到是“the woman”太过宽泛,我们又将主体更换成确切的人物角色“Harry Potter”,测试结果显示,在多片段天生时,人物手指等细节瑕疵无可避免,但场景、风格同等性上发挥稳定。

1秒只需0.1元,AI视频的本钱竞赛今年下半年,AI视频领域掀起了一波运用间的较劲,快手可灵、Runway Gen-3等陆续面向公众开放利用。
几家产品的问世,都向我们通报了一个信息“AI视频天生技能更适宜短视频制作”。
除了效果表现之外,陆续有AI工具开始采纳付费订阅制,快手可灵同样结束了免费试用期,正式迈入了“收费时期”。

快影App内公告作为AI领域向来绕不开的问题,商业化的困境同样涌如今了视频运用上。
当天生越长的视频,是否本钱就越贵?据调查机构Factorial Funds发文表示, Sora约30亿参数的演习本钱,比1.8万亿参数的GPT-4还要多。

Factorial Funds对Sora的干系宣布对付AI视频而言,一些天生做事会根据视频的时长、所需处理的视频繁芜性以及利用技能等成分来定价。
如果AI视频还包括了高度定制化的内容,对视频天生的质量、连贯程度以及真实性有哀求,实际所用的推理本钱自然就会更高。
曾有媒体宣布,海内AI企业做过一个估算,大约两分钟的AI视频实际要花掉180元。
盈利,是摆在所有AI视频工具面前的共同问题。
哪怕是PixVerse也扛不住相应的推理本钱。
目前,PixVerse推出了订阅套餐方案,根本会员每月5美元,可以得到1150个积分。

PixVerse每天生8秒的视频,须要花费30个积分,这样算来,1150个积分大约能天生20条完全的15秒短视频,一条短视频的本钱折合公民币1.5元,是Runway Gen-3用度的1/3。

当然,背后的技能以及天生视频结果的不愿定性,导致实际利用的本钱会骤升。

用度之外,对付大多数普通用户而言,短短几秒的视频韶光,如果只是大略的镜头移动,除了得到体验感,很难有真正的利用场景。

爱诗科技创始人王长虎在年初接管采访时也提到:“在未来6-12个月里,我们希望用AI制作出15秒长的可消费内容。
只有当普通人都能用AI天生出好看、好玩的内容,才是AI视频的ChatGPT时候”。

目前看来,高算力、高本钱依旧是商业化的紧张障碍,但不少视频玩家也从中找到了用户留存的新方法,“AI整活”“老照片动起来”“AI修复”等抽象玩法在互联网上层出不穷。
在大多数用户对AI视频工具的新鲜感褪去之后,如何用新玩法留住用户,摸索出新的赢利方法,或许会是视频内容玩家下一个竞争赛道。