本日找到了一个Hypernetworks的模型,专学天生各种袜 ,便是这个了。

先大略先容下SD 的 Hypernetwork(超网络),中文名也叫超网络,最初由 StableDiffusion 早期利用者 novelai 开拓。
它是一个附加到 StableDiffusion 模型的小型神经网络,用于修正模型的风格。

其紧张特点和事情事理如下:

事情事理:前面提到 SD 模型中最关键的部分是噪声预测器 UNet,而 UNet 里面的关键部分是交叉把稳力模块。
Hypernetwork 便是修正了这部分内容,它通过插入两个子网络来转换 key 和 query 向量,进而接管了交叉把稳力模块。
原始的交叉把稳力模块直策应用输入的 key 和 query 向量来打算把稳力权重,但在 Hypernetwork 参与后,这些向量会先经由 Hypernetwork 中的两个子网络进行变换,然后再用于把稳力机制的打算。
这种变换使得模型能够以一种更加动态的办法调度其把稳力机制,可能增强模型对输入数据的敏感度温柔应能力。
与其他模型的差异:与 checkpoint 模型:checkpoint 模型包含天生图像的所有必要信息,体积从 2GB 到 7GB 不等,而 Hypernetwork 常日低于 200MB。
Hypernetwork 不能单独利用,须要与 checkpoint 模型合营来天生图像。
checkpoint 模型更强大,可以比 Hypernetwork 更好地存储样式。
演习 checkpoint 模型时是对全体模型进行微调,而演习 Hypernetwork 时仅对其自身进行微调。
与 Lora 模型:Hypernetwork 与 Lora 模型很相似,文件大小常日都低于 200MB,且都只修正了交叉把稳力模块。
但它们修正的办法不同,Lora 模型通过改变其权重来修正交叉把稳力,而 Hypernetwork 是通过插入其他网络来实现。
常日来说 Lora 模型会产生更好的结果。
此外,Lora 是一种数据存储技能,不直接规定演习流程,而超网络规定了演习流程,它通过天生另一个网络的权重来定义演习过程,为演习中的网络供应动态的权重,从而许可在演习过程中进行更灵巧的学习和调度。
与 Embedding: Embedding 是一种称为“文本反转”的微调方法,它只是定义新的关键字来实现某些样式。
与 Hypernetwork 一样,Embedding 不会改变模型的架构。
Embedding 在文本编码器中创建新的嵌入,而 Hypernetwork 将一个小型网络插入噪声预测器的交叉把稳力模块中。

下载安装方法(以 C 站为例):

AI绘画hypernetworks 模型实战绘制丝袜美男

浏览器中打开 C 站,搜索 hypernetwork;选择喜好的 hypernetwork 模型并下载;将模型文件拷贝到\sd-webui-aki-v4.2\models\hypernetworks目录(详细路径可能因实际安装情形而有所不同);重新启动 StableDiffusion 使其生效(部分情形下可能无需重启,直接在模型处刷新即可)。

利用方法:Hypernetwork 的利用办法与 Embedding 类似,差异是 Hypernetwork 用在正向提示词中。
例如,若要利用名为“waterelemental_10”的 Hypernetwork 模型,可以在正向提示词中输入<hypernet:waterelemental_10:multiplier>,个中“multiplier”是运用于该模型的权重,默认值为 1,设置为 0 将禁用该模型。
然后设置其他干系参数,如采样算法、迭代步数、CFG scale 等,再点击天生按钮即可。

Hypernetwork 虽然是一种模型微调技能,但目前利用人数相对较少,其利用效果每每不如体积更小的 Embedding 文件,且能实现的效果也大多可以用其他替代办法实现,比如 Embedding 或 Lora 等。
不过对付一些特定需求或想要考试测验不同微调办法的用户,理解和利用 Hypernetwork 仍旧具有一定的代价。

Coloured Pantyhose

利用步骤和lora利用类似,但我喜好看中文,以是下载后,我改了文件名。

第一步、下载

从C站高下载,须要邪术

第二步、安装

下载后放入到。
sd-webui-aki\sd-webui-aki-v4.1\models\hypernetworks的 目录

然后刷新

第三步、利用

点击图片就可以,

确认在正向提示词已经利用了。

作品展示