Stable Diffusion web UI之ControlNet使用

这篇具有很好参考价值的文章主要介绍了Stable Diffusion web UI之ControlNet使用。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

Stable Diffusion and ControlNet Explained

如果你使用 Stable Diffusion 一段时间后,您可能已经注意到图像的输出结果具有无穷无尽的可能性。需要大量的试验才能生成高质量的图像,感觉就是在赌这一下能不能拍出好图。然而,即使输入复杂和详尽的提示,你也会觉得很难控制生成的图片的方向​​。对于这种情况,Stable Diffusion 为我们配备了名为 ControlNet 的扩展。
除了基本参数外,Stable Diffusion 还有很多扩展。每个扩展都具有重要作用,具体取决于你对最终结果的目标。本文将帮助介绍生成一张精确图片所需的其他控件,并了解每个控件如何帮助提升图片以符合你的喜好。

ControlNet 是 Stable Diffusion 的扩展,Stable Diffusion 是斯坦福大学研究人员开发的一种新型神经网络架构,旨在让创作者轻松控制 AI 图像和视频中的对象。它将通过根据边缘检测、深度分析、草图处理或人体姿势等各种条件操纵图像生成来进行控制。ControlNet 可以概括为一种在 Stable Diffusion 中微调的简单方法。
这将允许在使用文本到图像和图像到图像功能创建图像时实现更高的精度和更好的控制。ControlNet 的流行是由于其使用简单。可以从来自互联网的任何照片生成既定的姿势或形状。我们将讨论 ControlNet 的每个部分,以了解每个配置如何影响输出。

一、安装

在我们深入了解 ControlNet 的设置之前,以防您的 Stable Diffusion 中没有任何 ControlNet 设置。我们将帮助指导您如何激活 ControlNet 扩展并在需要时下载一些选项。

  1. 转到 Available 选项卡;
  2. 单击 Load From 按钮,不要更改框内的URL;
  3. 在搜索栏中输入 controlnet,你将看到 sd-webui-controlnet 扩展名。单击安装按钮并等待它成功加载;
  4. 激活已安装的 ControlNet 扩展,需要先重启 UI,立即生效;
  5. text2imageimage2image 选项卡中找到 ControlNet 下拉选项卡。

二、基本功能

Stable Diffusion web UI之ControlNet使用
在 ControlNet 图像复选框内,有几个选项:

  • Enable:选中此框以在图像生成过程中启用 ControlNet。
  • Low VRAM:这会减慢 ETA 过程,但有助于使用更少的计算空间(小于 6 GB VRAM)。
  • Pixel Perfect:通过启用该按钮,不必手动配置 Preprocessor 的分辨率。ControlNet 将为你计算最佳注释器分辨率,确保每个像素都与稳定扩散准确对齐。
  • Allow Preview:这允许你在单击以生成实际图像之前预览 ControlNet 的 Preprocessor,它可以节省很多时间。

v1.1.220已删除:
Invert Input Color:此工具用于检测用户上传的图像。预处理器和模型通常需要黑色图像上的白线来检测图案。但是如果你在白色图像上有一条黑色线条,你可以使用这个工具来切换颜色。
RGB to BGR:此工具用于检测用户导入图像中的颜色信息。有时,图像中的颜色信息可能与扩展程序预期的不同。文章来源地址https://www.toymoban.com/news/detail-498422.html

到了这里,关于Stable Diffusion web UI之ControlNet使用的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • 【Stable Diffusion】在windows环境下部署并使用Stable Diffusion Web UI---通过 Conda

    本专栏主要记录人工智能的应用方面的内容,包括chatGPT、AI绘图等等; 在当今AI的热潮下,不学习AI,就要被AI淘汰;所以欢迎小伙伴加入本专栏和我一起探索AI的应用,通过AI来帮助自己提升生产力; 订阅后可私聊我获取 《从零注册并登录使用ChatGPT》《从零开始使用chatGPT的

    2024年02月04日
    浏览(48)
  • Stable Diffusion使用controlnet报错

    1、问题描述,使用controlnet时报错如下 error running process: G:\\0111stable-diffusion-webuiextensionssd-webui-controlnetscriptscontrolnet.py Traceback (most recent call last):   File \\\"G:\\0111stable-diffusion-webuimodulesscripts.py\\\", line 418, in process     script.process(p, *script_args)   File \\\"G:\\0111stable-diffusion-webuiextensi

    2024年02月09日
    浏览(50)
  • Stable Diffusion Webui 之 ControlNet使用

    模型安装分为 预处理模型 和 controlnet所需要的模型。 先安装 预处理模型 ,打开AI所在的 安装目录extensionssd-webui-controlnetannotator ,将对应的预处理模型放进对应的文件夹中即可, 而 controlnet所需模型 则是 安装目录extensionssd-webui-controlnetmodels ,放在该文件夹下即可。 通过

    2024年02月16日
    浏览(62)
  • Stable Diffusion web UI之X/Y/Z plot使用

    PASS CFG Scale 配置的越高,SD生成的图会更贴用户提供的 prompt 来进行生成,AI的自由度会下降,生成人物的时候特别需要注意,对于手脚脸部,过高的值更容易造成过拟合还有画面崩坏。 X/Y/Z plot脚本可以集成多组图片,方便对比不同参数对模型产生的影响以及在模型的不同阶

    2024年02月10日
    浏览(33)
  • AIGC文生图:使用ControlNet 控制 Stable Diffusion

    ControlNet是斯坦福大学研究人员开发的Stable Diffusion的扩展,使创作者能够轻松地控制AI图像和视频中的对象。它将根据边缘检测、草图处理或人体姿势等各种条件来控制图像生成。 论坛地址:Adding Conditional Control to Text-to-Image Diffusion Models ControlNet是一种通过添加额外条件来控制

    2024年02月16日
    浏览(48)
  • stable-diffusion-webui 中 Controlnet 使用说明

    Controlnet 允许通过线稿、动作识别、深度信息等对生成的图像进行控制。 自动安装 在 stable-diffusion-webui 页面上找到 Extensions - Install from URL ,输入插件的 git 地址,然后点击 Install 即可, URL 如下: 等待 loading 结束后,页面底部会出现 Installed into xxx. Use Installed tab to restart. 提示

    2024年02月06日
    浏览(67)
  • 使用ControlNet控制Stable-Diffusion出图人物的姿势

    在Stable-Diffusion(以下简称SD)出图中,我们往往需要对出图人物的姿势进行控制,这里我使用一个比较简单上手的方法,通过ControlNet可以很方便地对画面风格,人物姿势进行控制,从而生成更加符合自己期望的图片 跟SD配合的插件工具的项目地址是:https://github.com/Mikubill/s

    2024年02月09日
    浏览(52)
  • Stable Diffusion - 图像控制插件 ControlNet (OpenPose) 配置与使用

    欢迎关注我的CSDN:https://spike.blog.csdn.net/ 本文地址:https://spike.blog.csdn.net/article/details/131591887 论文:Adding Conditional Control to Text-to-Image Diffusion Models ControlNet 是神经网络结构,用于控制预训练的大型扩散模型,以支持额外的输入条件。ControlNet 以端到端的方式学习任务特定的条

    2024年02月13日
    浏览(38)
  • 在Stable Diffusion WebUI中使用ControlNet控制人物姿势

    在Stable Diffusion WebUI中使用ControlNet控制人物姿势@TOC 这个教程默认你已经安装好了 stable-diffusion-webui , 并且已经学会了基本的用法,加载骨干模型和Lora等辅助模型。 已经如下图所示可以生成图片了: 然而,这样生成的人物难以控制动作,因此需要添加扩展:sd-webui-controlnet,

    2024年02月01日
    浏览(61)
  • 常用的ControlNet以及如何在Stable Diffusion WebUI中使用

    上一次我们已经介绍了如何通过代码的方式使用ControlNet,Stable Diffusion WebUI里面包含了很详细的使用设置,我们可以直接在上面进行操作,所以本文将介绍如何以傻瓜的方式直接使用ControlNet。 如果你用过Stable Diffusion,可能已经注意到图像的输出有无限的结果可能性,就像在

    2024年02月04日
    浏览(45)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包