这次,人类画手是真要失落业了。

你敢相信,这张电影剧照一样的图片,居然是AI画的?

Midjourney v5天生的光影和皮肤效果

更邪乎的是,AI画手还会自己动脑筋。

AI画手会画手了Stable Diffusion学会想象卷趴人类提示工程师

最近新出的Stable Diffusion Reimagine,只要你给它一张图,它就会无限开拓自己的想象力。
你要多少版,它就给你天生多少版。

有了这个AI,无论哀求多奇葩,要改多少次,甲方爸爸想要的方案,设计师和画手几分钟就甩给他。

logo放大的同时能不能缩小一点?改!

想要五彩斑斓的黑?改!

便是这么气定神闲,游刃有余。

唯一要担心的便是,千万别让甲方爸爸知道……

AI学会想象,人类连prompt的事情也要丢了?

Stable Diffusion这个AI画图工具,咱们都很熟习了。

昨天,Stability AI又曝出一个震荡:它把Stable Diffusion大大改进了一把。

这次新推出的产品,叫做Stable Diffusion Reimagine。

敢叫Reimagine,听起来就很震荡。

没错,现在你只要上传一张图片,SDR就可以根据这个图片创作无数张新图。

而且它是真的想象,真的创作,并不是照抄原始图片里的面孔或物体,而是根据原始图像的灵感,重新创作新图。

体验地址:https://clipdrop.co/stable-diffusion-reimagine

我们都知道,在以往的AI作图工具中,prompt的质量,每每决定着你能画出图片的上限。

很多人说,会不会prompt,将成为利用AI的庸人和天才的分水岭。
同样,提示工程师也把prompt视为自己打开AI大奖的秘密武器。

去年在科罗拉多州展览会艺术比赛的获奖者、《太空歌剧院》的创作者,就谢绝分享出自己在Midjourney所用的提示。
听说,他花了80多个小时,在900次迭代中,才完成了这幅画作。

而现在,不须要多繁芜的prompt,只须要把一张图片丢给AI,算法就可以创造出我们想要的无穷多变革。

轻点一下鼠标,你的寝室立马大变样。

技能事理

这个全新的Stable Diffusion Reimagine,是基于stability.ai创造的一种新算法。

经典的Stable Diffusion模型,都是被演习成以文本输入为条件。

而Reimagine中,用一个图像编码器取代了原来的文本编码器。
不是根据文本输入来天生图像,而是从图像中天生图像。
在编码器通过算法后,还加入一些噪音,以产生变革。

这种方法产生了外不雅观相似、但细节和构图不同的图像。

而与图像到图像的算法不同,原始图像首先就被完备编码,这意味着天生器并未利用来自原始图像的任何一个像素。

而且,Clipdrop还能提升图片的分辨率。
用户只需上传一张小图,就能得到一张至少有两倍细节水平的图片。

据悉,Stable Diffusion Reimagine的模型很快就会在StabilityAI的GitHub上开源了。

发挥不稳

当然,Reimagine也存在一定的局限性。

最大的毛病便是,它不会根据原始的prompt创作图像。

其余呢,它的发挥也没有那么稳定,有时很惊艳,有时会比较拉跨。

其余,虽然Stability AI在模型中安装了一个过滤器,阻挡不适当的要求,但它也不是万能的。

其余,AI模型都无法避免的偏见问题,Reimagine也不能避免,Stability AI目前正在网络用户的反馈,希望能减轻偏见。

网友已玩疯

而网友们当然已经迫不及待地玩上了。

左上角(或最左侧)是原始文件,而其他图片都是受原始文件启示后,「重新想象」的创作。

从分享的作品上来看,效果最为突出的确实是设计:

Stable Diffusion Reimagine可以在不改变整体氛围的情形下,重新设计全体场景。

看得出来,Stable Diffusion Reimagine在手绘作品的处理上,表现得非常出色。

这位网友表示,它对「觉得」理解得相称好,自己很喜好这种自由发挥的效果。

此外,Stable Diffusion Reimagine对二次元角色拿捏得也不错。

在真实场景中,有网友在考试测验了自己的自拍之后大赞称:「我打赌你们绝对猜不到哪张照片是真的。

然而,

首先输入《九品芝麻官》的「我全都要」:

然后让Stable Diffusion「重新想象」一下:(这结果多少有些杀马特在里面)

换成「威尔·史密斯在奥斯卡现场怒扇克里斯洛克耳光」试试?

啊,这……

或许是我们的打开办法不对,毕竟,Stability AI的紧张目的帮助设计师们只用一张照片就能得到类似的备选方案。

那么,我们就用它们给出的案例来做个测试吧。

把稳看,下面是官方的演示:

而下面这个是同一张图的「复现」效果……

显然,Reimagine天生的图片看起来远没有那么逼真,而且比例也很奇怪。

在进行了数次考试测验之后,我们仍旧没有得到一张看起来完备真实的图像。

对此,有网友在考试测验之后也表示,Stable Diffusion Reimagin天生图片的质量跟Midjourney的差距还是很大的。

由于Midjourney可以通过社区天生的大量反馈进行优化,而这一点是Stable Diffusion难以比拟的。

AI画手终于会画手了

而另一强大的AI画手——Midjourney,当然也没闲着。

本周三,Midjourney宣告:我们已经升级到第5版了!

比起之前的版本,V5版的图像质量更高、输出更多样化、有更广泛的风格、支持无缝纹理、有更宽的纵横比、有更好的图像提示,以及更宽的动态范围……

Midjourney V5的效果怎么说呢,AI艺术家们给出的评价是——「太逼真,太完美,以至于令人不寒而栗。

「仿佛一个近视眼忽然戴上了眼镜——画面忽然间就变成4k的了。

网友评价:由于每次都太完美,太惊艳,到末了多巴胺都停滞分泌了

可以看出,Midjourney自2022年3月首次面世以来,在图像细节上一贯在一直进步。
去年8月推出了第3版,11月推出了第4版,今年3月就推出了第5版。

输入这样一个prompt「一个肌肉发达的野蛮人在 CRT 电视机旁手持武器、电影、8K、演播室照明」,v3、v4、v5天生的图像依次如下——

Midjourney v3(左)、v4(中)和 v5(右)

但最惊艳的提升,还是对人手的处理。

nice!

众所周知,Midjourney、Stable Diffusion和DALL-E等模型, 都经由了数百万人类艺术家作品的演习。

为了构建LAION-5B数据集,AI研究者辅导的机器人爬取了数十亿个网站,包括DeviantArt、ArtStation、Pinterest、Getty Images等的大型图像库,并网络了数百万张照片。

然而即便如此,AI画手依然没学会画手。

即便是人和场景都已经达到真假难辨的程度,只要放大手部,基本便是一秒破功。

网友们纷纭表示,那些从不露手的「美女自拍」,多数便是AI干的了。

这是为什么呢?

Stability AI的阐明是,在AI数据集中,人类的手不如面部显著;手在原始图像中每每很小,很少以大的形式涌现。

而佛罗里达大学AI和艺术教授Amelia Winger-Bearskin的阐明是AI们并不能真正理解「手」是什么,不理解它在解剖学上与人体有什么关系。

而Wieland创造,Midjourney v5在大多数时候,都能画出5个手指的手,而不是7到10个指头的。

而AI会画手之后,网上涌现的任何照片,都真假莫辨了。

如果非要说Midjourney V5有什么缺陷,大概便是太过逼真和完美,也就让我们损失了那种多次考试测验后找到最佳结果的快感。

(昨天试了多次终于用文心一言画出完美林黛玉的

这便是老虎机效应(near-miss)——就差那么一点儿,才是让我们连续玩下去的动力。

参考资料:

https://arstechnica.com/information-technology/2023/03/ai-imager-midjourney-v5-stuns-with-photorealistic-images-and-5-fingered-hands/

https://stability.ai/blog/stable-diffusion-reimagine