项目名称: Paints-Undo
项目简介: MeoAI来向你先容,Paints-Undo是一个创新的人工智能项目,专注于仿照和理解人类在数字绘画中的绘图行为。该项目的愿景是开拓出能够精确反响人类艺术家需求和行为的AI模型,以促进人工智能与人类艺术家之间更紧密、更自然的互助。
项目地址:
GitHub上搜索Paints-UNDO
功能特点:
行为仿照: 模型能够展示各种人类绘画行为,包括素描、着墨、着色、阴影处理、图像变换、旁边翻转、颜色曲线调度、图层可见性变动,乃至是在绘画过程中改变整体构思。输入输出: 模型接管一张完成的图像作为输入,然后输出该图像逐步绘制的序列,仿照了从终极作品回溯到初始笔触的过程。二、如何支配和利用 Paints-Undo让MeoAI来一步一步教你。
2.1支配 Paints-Undo:1.克隆仓库: 首先,您须要在本地打算机上克隆Paints-Undo的GitHub仓库。可以通过在终端或命令提示符中运行以下命令来完成:
git clone https://github.com/lllyasviel/Paints-UNDO.git
2.进入项目目录: 克隆完成后,进入项目目录:
cd Paints-UNDO
3.创建和激活Python环境: 利用conda创建一个新的Python环境,并激活它:
conda create -n paints_undo python=3.10 conda activate paints_undo
4.安装依赖: 安装必要的Python包,首先是xformers库:
详细代码请阅读原文:Paints-Undo:图片天生绘画过程,AI解锁逆向绘画与艺术行为剖析新领域:https://www.meoai.net/paints-undo.html 「链接」5.然后安装项目所需的其他依赖项:
详细代码请阅读原文
6.启动运用: 所有依赖安装完成后,通过运行以下命令来启动Paints-Undo的Web界面:
详细代码请阅读原文
如果您不熟习这些命令,可以将它们复制到谈天机器人中并要求阐明和更详细的解释。
2.2利用 Paints-Undo:访问Web界面: 启动运用后,您将看到一个Web界面,常日是通过浏览器访问确当地做事器(例如:http://localhost:7860)。上传图像: 在Web界面中,您可以上传您想要剖析的图像,或者点击页面底部的示例图像以利用预设的图像。天生提示(Step 1): 在标记为“步骤1”的用户界面中,点击“天生提示”按钮来获取全局提示。这一步是为模型供应足够的高下文信息,以便它可以理解图像的内容。天生关键帧(Step 2): 接下来,在“步骤2”中,点击“天生关键帧”。在此步骤中,您可以变动种子或其他参数来掌握天生过程。天生视频(Step 3): 末了,在“步骤3”中,点击“天生视频”按钮。同样,您可以在此步骤中调度种子或其他参数,以得到您希望的视频效果。查当作果: 模型将根据您供应的图像和参数天生绘画过程视频。您可以在Web界面中查当作果,并根据须要下载或进一步编辑。技能哀求:
项目在配备24GB VRAM的Nvidia 4090和3090TI上进行了测试,理论上最小VRAM需求在极度优化下约为10~12.5 GB。处理一张图像的韶光大约为5到10分钟,输出视频的范例时长为25秒,分辨率有320x512、512x320、384x448或448x384等选项。把稳:
由于处理韶光可能较长,项目开拓者不建议将Paints-Undo支配到HuggingFace Space,以避免对HF做事器造成不必要的包袱。如果您没有所需的打算设备,可以等待项目团队发布Colab条记本(但请把稳Colab免费层可能不敷以运行此项目)。三、模型及其架构的详细解释3.1单帧模型 (paints_undo_single_frame)1.模型架构: 单帧模型的架构基于SD1.5,并进行了修正以适应Paints-Undo项目的需求。它通过演习不同的betas scheduler和operation step条件来实现其功能。
2.演习细节:
模型利用了以下betas值进行演习:betas = torch.linspace(0.00085,0.020,1000, dtype=torch.float64)与原始SD1.5利用的betas值不同,单帧模型的演习betas值在结束时不同,并且去除了平方操作。3.分外修正:
移除了文本编码器CLIP ViT-L/14的末了一层,以确保与diffusers的CLIP Skip设置同等。operation step条件以类似于SDXL的额外嵌入办法添加到层嵌入中。4.输入和输出:
输入:一张图像和一个operation step(0到999之间的整数)。输出:根据指定的operation step,模型输出一张仿照撤消相应步骤后的单图像。5.利用场景:
单帧模型可以仿照从终极作品回溯到初始笔触的任何步骤。3.2多帧模型 (paints_undo_multi_frame)1.模型架构: 多帧模型的演习基于VideoCrafter家族,但进行了大量修正,包括神经网络的拓扑构造和行为。
2.紧张组件:
VAE:与ToonCrafter中提取的动漫VAE相同。3D-UNet:从Crafters的lvdm修正而来,调度了把稳力模块,并支持在空间自把稳力层中的韶光窗口。CLIP:利用了SD2.1版本的CLIP。CLIP-Vision:实现了支持任意纵横比的Clip Vision,通过插值位置嵌入来实现。Image Projection:实现了一个小型transformer,输入两帧图像,输出每帧的16个图像嵌入。3.把稳力机制:
3D-UNet支持三种把稳力窗口模式:"prv"、"first"和"roll",以不同的办法关注前后帧的空间高下文。4.输入和输出:
输入:两张图像。输出:这两张图像之间的16个中间帧。5.利用场景:
多帧模型用于天生两个关键帧之间的过渡动画,展现更连续的动态过程。6.模型利用把稳事变:
单帧模型和多帧模型常日结合利用,首先利用单帧模型天生几个关键帧,然后利用多帧模型进行插值,天生较长的视频。模型的输出质量高度依赖于输入图像的质量,以及模型对图像内容的理解。通过这些详细的模型架构和利用解释,用户可以更好地理解Paints-Undo模型的事情事理,以及如何有效地利用它们来天生绘画过程视频。
四、社区提醒
MeoAI在这里提醒大家,项目在GitHub上的页面是唯一的官方资源,提醒用户当心并避免访问假冒的Paints-Undo网站,这些假冒网站最近在谷歌搜索和社交媒体上频繁涌现。
五、运用处景作为剖析人类行为的根本模型,构建与人类行为和需求同等的AI工具。结合草图勾引的图像天生器实现“PaintsRedo”,增强人类创造力。用于查看自己的艺术作品的不同可能过程,以得到艺术灵感。将输出用作视频/电影殊效,实现特定的创意目的。六、免责声明项目旨在发展人类绘画行为的根本模型,以帮助未来的AI系统更好地知足人类艺术家的实际需求。用户在利用此工具创作内容时,应遵守当地法律并负任务地利用。