Stable Diffusion Webui 之 ControlNet使用

这篇具有很好参考价值的文章主要介绍了Stable Diffusion Webui 之 ControlNet使用。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

一、安装

1.1、插件安装

1.2、模型安装

模型安装分为预处理模型和 controlnet所需要的模型。

先安装预处理模型,打开AI所在的安装目录\extensions\sd-webui-controlnet\annotator,将对应的预处理模型放进对应的文件夹中即可,
controlnet所需模型则是安装目录\extensions\sd-webui-controlnet\models,放在该文件夹下即可。

二、Control Net 使用

Stable Diffusion Webui 之 ControlNet使用,AIGC,# Stable Diffusion,stable diffusion,AIGC,AI 绘画

2.1、线稿上色

通过 ControlNet 边缘检测模型或线稿模型提取线稿(可提取参考图片线稿,或者手绘线稿),再根据提示词和风格模型对图像进行着色和风格化

应用模型:Canny、SoftEdge、Lineart。

2.1.1、Canny

1、选择预处理器及模型

Stable Diffusion Webui 之 ControlNet使用,AIGC,# Stable Diffusion,stable diffusion,AIGC,AI 绘画

2、参数控制
1、preprocessor_resolution 预处理器分辨率

调整线稿的精细层度,越高生成的效果与原图越相像
Stable Diffusion Webui 之 ControlNet使用,AIGC,# Stable Diffusion,stable diffusion,AIGC,AI 绘画
数值越大,线条越细,描述越清晰
Stable Diffusion Webui 之 ControlNet使用,AIGC,# Stable Diffusion,stable diffusion,AIGC,AI 绘画

2、Threshold

Stable Diffusion Webui 之 ControlNet使用,AIGC,# Stable Diffusion,stable diffusion,AIGC,AI 绘画

3、写入提示词,生成图片

提示词:lace-trimmed dress,red dress,blck garter straps,
看的姿势很相似

2.1.3、SoftEdge(保留更多边缘细节)

预处理器: hed, hed_safe, 模型: control_v11p_sd15_softedge
参数同 canny
Stable Diffusion Webui 之 ControlNet使用,AIGC,# Stable Diffusion,stable diffusion,AIGC,AI 绘画

2.1.4、Lineart

Stable Diffusion Webui 之 ControlNet使用,AIGC,# Stable Diffusion,stable diffusion,AIGC,AI 绘画

2.2、深度检测,提取深度结构

Stable Diffusion Webui 之 ControlNet使用,AIGC,# Stable Diffusion,stable diffusion,AIGC,AI 绘画
Stable Diffusion Webui 之 ControlNet使用,AIGC,# Stable Diffusion,stable diffusion,AIGC,AI 绘画

2.2.1、背景替换

方法:在 img2img 图生图模式中,通过 ControlNet 的 Depth_leres 模型中的 remove background 功能移除背景,再通过提示词更换想要的背景。

预处理器 depth_leres, 应用模型:depth。

要点:如果想要比较完美的替换背景,可以在图生图的 Inpaint 模式中,对需要保留的图片内容添加蒙版,remove background 值可以设置在 70-80%。

depth_leres 示例:(将原图背景替换为公园背景)
Stable Diffusion Webui 之 ControlNet使用,AIGC,# Stable Diffusion,stable diffusion,AIGC,AI 绘画
Stable Diffusion Webui 之 ControlNet使用,AIGC,# Stable Diffusion,stable diffusion,AIGC,AI 绘画

Stable Diffusion Webui 之 ControlNet使用,AIGC,# Stable Diffusion,stable diffusion,AIGC,AI 绘画

2.3、openpose(姿态检测)

通过 ControlNet 的 Openpose 模型精准识别出人物姿态,再配合提示词和风格模型生成同样姿态的图片。
Stable Diffusion Webui 之 ControlNet使用,AIGC,# Stable Diffusion,stable diffusion,AIGC,AI 绘画
下面是一次生成的预览图
Stable Diffusion Webui 之 ControlNet使用,AIGC,# Stable Diffusion,stable diffusion,AIGC,AI 绘画

2.3.1、 控制女友姿势

提示词: 1girl, solo, dress, braid, hairband, earrings, smile, brown eyes, white dress, realistic, jewelry, long hair, black hair, looking at viewer, bare shoulders, lips, blue hairband, single braid, brown hair, simple background

Stable Diffusion Webui 之 ControlNet使用,AIGC,# Stable Diffusion,stable diffusion,AIGC,AI 绘画

Stable Diffusion Webui 之 ControlNet使用,AIGC,# Stable Diffusion,stable diffusion,AIGC,AI 绘画
在这里插入图片描述

2.4、Scribble (涂鸦)

方法:通过 ControlNet 的 Scribble 模型提取涂鸦图(可提取参考图涂鸦,或者手绘涂鸦图),再根据提示词和风格模型对图像进行着色和风格化。

应用模型:Scribble。

Scribble 比 Canny、SoftEdge 和 Lineart 的自由发挥度要更高,也可以用于对手绘稿进行着色和风格处理。Scribble 的预处理器有三种模式:Scribble_hed,Scribble_pidinet,Scribble_Xdog,对比如下,可以看到 Scribble_Xdog 的处理细节更为丰富:

Stable Diffusion Webui 之 ControlNet使用,AIGC,# Stable Diffusion,stable diffusion,AIGC,AI 绘画

2.4.1、涂鸦

提示词: 1girl, solo, dress, braid, hairband, earrings, smile, brown eyes, white dress, realistic, jewelry, long hair, black hair, looking at viewer, bare shoulders, lips, blue hairband, single braid, brown hair, simple background

Stable Diffusion Webui 之 ControlNet使用,AIGC,# Stable Diffusion,stable diffusion,AIGC,AI 绘画

2.4.2、手动涂鸦

Scribble 手动涂鸦示例(根据手绘草图,生成图像):

也可以不用参考图,直接创建空白画布,手绘涂鸦成图。

Stable Diffusion Webui 之 ControlNet使用,AIGC,# Stable Diffusion,stable diffusion,AIGC,AI 绘画

有提示词:1girl, solo, dress, braid, hairband, earrings, smile, brown eyes, white dress, realistic, jewelry, long hair, black hair, looking at viewer, bare shoulders, lips, blue hairband, single braid, brown hair, simple background

Stable Diffusion Webui 之 ControlNet使用,AIGC,# Stable Diffusion,stable diffusion,AIGC,AI 绘画

2.5、建筑物绘图

通过分析图片中的线条结构和几何形状,可以构建建筑物的外框,适合建筑、室内设计的朋友使用。

Stable Diffusion Webui 之 ControlNet使用,AIGC,# Stable Diffusion,stable diffusion,AIGC,AI 绘画
你可以输入关键词,也可以不填,让ai自动发挥

pearl white walls, windsor gray floors, bedroom, Natural lighting, earthly tones, simple and clean, trending on interior design, digital artwork by Audrey kawasaki, Smooth, Detailed, Artstation, Neutral colors, elegant

Stable Diffusion Webui 之 ControlNet使用,AIGC,# Stable Diffusion,stable diffusion,AIGC,AI 绘画

2.6、 法线贴图 (Normal map)

从原图中提取 3D 物体的法线向量,绘制的新图与原图的光影效果完全相同。

Stable Diffusion Webui 之 ControlNet使用,AIGC,# Stable Diffusion,stable diffusion,AIGC,AI 绘画文章来源地址https://www.toymoban.com/news/detail-577111.html

到了这里,关于Stable Diffusion Webui 之 ControlNet使用的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • AIGC文生图:使用ControlNet 控制 Stable Diffusion

    ControlNet是斯坦福大学研究人员开发的Stable Diffusion的扩展,使创作者能够轻松地控制AI图像和视频中的对象。它将根据边缘检测、草图处理或人体姿势等各种条件来控制图像生成。 论坛地址:Adding Conditional Control to Text-to-Image Diffusion Models ControlNet是一种通过添加额外条件来控制

    2024年02月16日
    浏览(36)
  • stable-diffusion-webui的介绍与使用——Controlnet1.1

    源码地址:https://github.com/lllyasviel/ControlNet | 最新 版本 controlnet-v1.1 论文 地址:2302.Adding Conditional Control to Text-to-Image Diffusion Models 扩展 UI地址 (需先安装sd-webui):https://github.com/Mikubill/sd-webui-controlnet 相关博文 相关博文- stable-diffusion-webui的基础功能手动安装,了解代码结构、

    2024年02月10日
    浏览(45)
  • Stable Diffusion stable-diffusion-webui ControlNet Lora

    Stable Diffusion用来文字生成图片,ControlNet就是用来控制构图的,LoRA就是用来控制风格的 。 国内加速官网: mirrors / AUTOMATIC1111 / stable-diffusion-webui · GitCode 安装参考: Stable Diffusion安装与常见错误(+Lora使用)2023年最新安装教程_cycyc123的博客-CSDN博客 保姆级教程:从0到1搭建St

    2024年02月09日
    浏览(40)
  • Stable Diffusion+ControlNet+Lora 指导AI+艺术设计的WebUI全流程使用教程

    设计师们往往对于新出的绘画工具上手比较艰难,本文针对目前比较火热的Stable Diffusion+ControlNet指导AI艺术设计的工具使用进行全面讲解。很多人会有预感,未来要么设计师被图形学程序员取代,要么会使用AI工具的设计师取代传统设计师,2023年开始,AI辅助设计甚至主导设计

    2024年02月07日
    浏览(40)
  • 探索【Stable-Diffusion WEBUI】的插件:ControlNet 1.1

    本篇主要提到ControlNet新版本的使用,和旧版本的变化,并偷懒参考了别人很不错的文章。 更多不断丰富的内容参考:🔗 《继续Stable-Diffusion WEBUI方方面面研究(内容索引)》 WEBUI的插件里, ControlNet 是少数几个不需要翻译的插件,因为翻译了也没意思: 控制网络 ? 它的作用是

    2024年02月09日
    浏览(34)
  • AIGC文生图:stable-diffusion-webui部署及使用

    Stable Diffusion Web UI 是一个基于 Stable Diffusion 的基础应用,利用 gradio 模块搭建出交互程序,可以在低代码 GUI 中立即访问 Stable Diffusion Stable Diffusion 是一个画像生成 AI,能够模拟和重建几乎任何可以以视觉形式想象的概念,而无需文本提示输入之外的任何指导 Stable Diffusion Web

    2024年02月16日
    浏览(42)
  • Stable Diffusion WebUI 控制网络 ControlNet 插件实现精准控图-详细教程

    本文收录于《AI绘画从入门到精通》专栏,专栏总目录:点这里,订阅后可阅读专栏内所有文章。 大家好,我是水滴~~ 本文主要介绍 Stable Diffusion WebUI 一个比较重要的插件 ControlNet(控制网络),主要内容有:ControlNet 的工作原理、如果安装 ControlNet 插件、如何使用 ControlNet

    2024年04月25日
    浏览(29)
  • 【深度学习 AIGC】stable diffusion webUI 使用过程,参数设置,教程,使用方法

    如果你想使用docker快速启动这个项目,你可以按下面这么操作(显卡支持CUDA11.8)。如果你不懂docker,请参考别的教程。 模型文件即checkpoint已包含了与vae相关的参数。然而,稳定扩散官方和novelai泄露的文件都包含了额外的vae,用于改进面部或其他细节。因此,加载vae文件实

    2024年02月05日
    浏览(40)
  • Stable Diffusion 绘画入门教程(webui)-ControlNet(IP2P)

    上篇文章介绍了深度Depth,这篇文章介绍下IP2P(InstructP2P), 通俗理解就是图生图,给原有图加一些效果,比如下图,左边为原图,右边为增加了效果的图: 玩法流程和之前一样哦 我这里用的大模型是\\\"anything-v5-PrtRE.safetensors\\\",选用不同模型生成效果会有区别,可以自己找喜欢的

    2024年04月25日
    浏览(43)
  • AIGC-stable-diffusion系列1- stable-diffusion-webui

    repo参考地址:https://github.com/AUTOMATIC1111/stable-diffusion-webui python下载地址:https://www.python.org/downloads/release/python-3106/ git下载地址:https://git-scm.com/download/win https://github.com/AUTOMATIC1111/stable-diffusion-webui/wiki 1 2 运行后会根据系统的默认python环境,创建虚拟环境 浏览器打开以下网址

    2024年02月16日
    浏览(33)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包