上一期见:AI绘图傻瓜指南 - 5分钟带你天生你的专属AI妹子
天生AI妹子哪哪都好,但是我相信大家已经不知足于此了。在之前,一贯有一个痛点是:没法自定义姿势。
纵然你的提示词写的再精准,他也没办法完备按你的想法来,属于随缘抽奖,天生100张,总能抽到几个SSR。
而神级SD插件ControlNET的出身,意味着抽卡游戏结束了,ControlNET补上了AIGC的末了一块拼图,自定义姿势,根据线稿、骨骼、其他图片直接天生全新的图,AI绘图正式进入自主可控的世代。
以下是我用ControlNET还原的:
还原度相称离谱,这只是ControlNET的冰上一角。我也相称佩服ControlNET的作者,正在斯坦福读博的中国人,叫张吕敏,真正的技能宅,和一个印度老哥一起干出这种神器,还直接开源,切实其实便是赛博菩萨,致敬!
话不多说,直接开始傻瓜式教程。
一. 安装ControlNET插件
首先大家肯定都已经完成了SD确当地化支配了,不会的见第一期,老规矩,我们先启动他。
然后我们要开始在线安装ControlNET插件了,找到右上角的扩展,然后点击从网址安装,把这段网址输入到下方。
https://github.com/Mikubill/sd-webui-controlnet
(注:此处由于要从github高下载,以是一定要科学上网往后再点安装,要不然大概率卡住)
然后我们点击安装,过几十秒1分钟旁边,就能看到这个提示,解释插件安装成功了。
但是别急,ControlNET插件的本体我们安装成功了,但是我们还须要演习的模型,这里我也已经给大家整合好了傻瓜模型包。下载好解压后,就能看到这8个模型。
我们把模型放到你的SD目录\extensions\sd-webui-controlnet\models下
OK,大功告成。我们直接应用并重启界面!
重启成功后,我们看到首页这块有ControlNET的模块,就解释安装成功啦!
二. 天生AI图
老规矩,我们先还是正常写提示词,这里我直接给一组我自己最常用的赛博朋克妹子的Prompt
<lora:koreanDollLikeness_v15:0.6>, bbest quality, masterpiece,best quality,official art,extremely detailed CG unity 8k wallpaper,, (photorealistic:1.4), colorful, (Kpop idol), (aegyo sal:1),((puffy eyes)), full body,(cyberpunk girl), (augmented reality:1), (neon lights), 1girl, blonde grey long hair,thick lips, blue contact lenses, hand on another's hip, silver cybernetic implants,long sleeves,black crop top, black leather jacket, purple metallic leggings, silver metallic boots,halo, earrings, pendant, wristband, armlet,Negative prompt: paintings, sketches, (worst quality:2), (low quality:2), (normal quality:2), lowres, normal quality, ((monochrome)), ((grayscale)), skin spots, acnes, skin blemishes, age spotSteps: 28, Sampler: DPM++ SDE Karras, CFG scale: 8, Seed: -1, Size: 512x768, Model hash: fc2511737a, Model: chilloutmix_NiPrunedFp32Fix, Denoising strength: 0.45, ENSD: 31337, Hires upscale: 1.75, Hires steps: 20, Hires upscaler: Latent (bicubic antialiased)
先跑一张。
OK,统统正常,没啥问题。这时候我们点开ControlNET模块。
大略给大家阐明一下常用的功能,其他的都不须要管。
上面大大的偏【拖拽图像到此处】,便是拖一张参考图进去。【启用】这个很大略,勾上便是开启ControlNET让他生效。【低显存优化】,如果你的显卡显存小于8G就勾上。【权重】一样平常用0.5~0.8就行,如果你一定要千篇一律的在往大了改,把稳1只管即便少用,随意马虎涌现崩坏的克苏鲁古神。
【预处理器】便是咱们刚才下载的那些模型,一会详细阐明这些模型的差异,这里我们先选OpenPose,后面的模型一定要选跟预处理器对应的,比如预处理器我们选了OpenPose,后面就也是OpenPose命名;如果预处理器是Hed,后面也得是Hed,以此类推
OK,设置完毕,咱们直接把咱们鸡哥扔进去。
右上角开始天生!
没啥毛病,基本同等,大家可以开动脑洞愉快的玩起来了~
三. 模型差异
接下来轻微花一点篇幅讲一点ControlNET常用的5个模型的差异,大家在用的时候也可以针对性选择。
1.Canny
Canny模型紧张便是把原图的边缘提取出来并天生线稿,然后通过线稿和提示词进行二次绘制。这个模型适宜复原人物,对细节的复原能力很强。
2.Depth(MiDaS和LeReS深度信息估算)
懂三维的朋友该当会非常熟习,便是深度图,从图片中提取黑白两色,越黑则离镜头越远,越白则离镜头越近,适宜还原图片的空间关系和构造,只管即便用真人照片或者三维照片做参考。(注:Depth的两种算法MiDaS和LeReS,听说LeReS更牛逼一些,但是我用起来反而没有MiDaS好用。个人还是常用MiDaS)
3.Hed
跟Canny基本相似,都是边缘检测提取线稿,唯一的不同是,Canny提取的线稿边更锐利,像铅笔画出来的,Hed的线稿边缘更柔和,像羊毫画出来的。如果是做毛发或者动物之类的,Hed更得当一些。这个没啥利害,看个人喜好。
4.M-LSD
紧张针对建筑设计,对棱角分明的建筑有超高的还原乃至是直接输出效果。
5.OpenPose
神中的神,天生骨骼图,摆脱提示词掌握人物骨骼姿势,并且最近新出的OpenPose支持手部骨骼检测了,极大概率办理了AI一贯不会画手的问题,其余参考图片最好用照片,效果会最好。
以上,便是我个人常用的5种模型啦,大家快乐的玩起来吧。
写在末了。
当前AI技能的迭代速率,乃至远超过了大多数人的学习速率,大多数人根本不理解天下即将碰着的变革,将会是如此的巨大,翻天覆地式的变革,我无法想象年底时,AI会迭代到什么样的胆怯的速率,仅仅是现在,我勉强跟上他的发展,已经耗尽了的全部精力,未来,不敢想象。
AI再怎么变革,但是我们也绝对不要用来做任何影响社会秩序、陵犯版权肖像权的事情,更不要用来违法犯罪!
以上,戴德。