stable-diffusion-webui的介绍与使用——Controlnet1.1

这篇具有很好参考价值的文章主要介绍了stable-diffusion-webui的介绍与使用——Controlnet1.1。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

源码地址:https://github.com/lllyasviel/ControlNet | 最新版本 controlnet-v1.1
论文地址:2302.Adding Conditional Control to Text-to-Image Diffusion Models
扩展UI地址(需先安装sd-webui):https://github.com/Mikubill/sd-webui-controlnet

相关博文

  1. 相关博文- stable-diffusion-webui的基础功能手动安装,了解代码结构、依赖、模型出处
  2. stable-diffusion 训练GUI安装——lora、dreambooth
  3. stable-diffusion-webui安装(2):扩展模块extensions——汉化、双语等

一、controlnet-v1.1 能做什么?

包含14个模型(11个成熟模型,3个实验)

1.1 图片-深度图-重绘-模型(ControlNet 1.1 Depth)

对应模型与配置(两个都要存在):

control_v11f1p_sd15_depth.pth
control_v11f1p_sd15_depth.yaml

内置的3种预处理器(Preprocessors)生成深度图:
Depth_Midas
Depth_Leres
Depth_Zoe
也可以直接从rendering engines 到处的深度图(depth)
下图来源于官方git (题词为):

a handsome man

stable-diffusion-webui的介绍与使用——Controlnet1.1

1.2 图片-Bae’s的正则化图-重构

Model file: control_v11p_sd15_normalbae.pth
Config file: control_v11p_sd15_normalbae.yaml
Acceptable Preprocessors: Normal BAE.
This model can accept normal maps from rendering engines as long as the normal map follows ScanNet’s protocol

题词

random seed 12345
(“a man made of flowers”):

stable-diffusion-webui的介绍与使用——Controlnet1.1

1.3 图像-candy边缘-重构 (Canny)

对应模型与配置

control_v11p_sd15_canny.pth
control_v11p_sd15_canny.yaml

stable-diffusion-webui的介绍与使用——Controlnet1.1

1.4 图片-MLSD直线检测-重绘

control_v11p_sd15_mlsd.pth
control_v11p_sd15_mlsd.yaml

Preprocessors: MLSD.
stable-diffusion-webui的介绍与使用——Controlnet1.1

1.5 图片-线稿-重绘

模型

Model file: control_v11p_sd15_scribble.pth
Config file: control_v11p_sd15_scribble.yaml

输入

真实图片 (选择内置)处理器

  • Scribble_HED,
  • Scribble_PIDI

stable-diffusion-webui的介绍与使用——Controlnet1.1

自己手绘(hand-drawn )

, “the beautiful landscape”):

stable-diffusion-webui的介绍与使用——Controlnet1.1

1.6 图像-平滑线稿-重绘

Acceptable Preprocessors:
SoftEdge_PIDI,
SoftEdge_PIDI_safe,
SoftEdge_HED,
SoftEdge_HED_safe.
stable-diffusion-webui的介绍与使用——Controlnet1.1

1.7 图片-语义分割图-重绘

相当于1.0版本支持150种颜色,本版本支持182 coco颜色
模型与配置

Model file: control_v11p_sd15_seg.pth
Config file: control_v11p_sd15_seg.yaml

stable-diffusion-webui的介绍与使用——Controlnet1.1

1.8 图片-人体(手)关键点-重绘

Model file: control_v11p_sd15_openpose.pth
Config file: control_v11p_sd15_openpose.yaml

几种使用组合(普通关键点、人脸关键点、手指关键点)

Openpose body
Openpose hand
Openpose face
Openpose body + Openpose hand
Openpose body + Openpose face
Openpose hand + Openpose face
Openpose body + Openpose hand + Openpose face
上面的组合太复杂了,建议使用下面2种
“Openpose” = Openpose body
“Openpose Full” = Openpose body + Openpose hand + Openpose face

单人姿态迁移

stable-diffusion-webui的介绍与使用——Controlnet1.1
全部
stable-diffusion-webui的介绍与使用——Controlnet1.1

1.9 图片-详细线稿(Lineart)-重绘

Model file: control_v11p_sd15_lineart.pth
Config file: control_v11p_sd15_lineart.yaml

详细程度
stable-diffusion-webui的介绍与使用——Controlnet1.1
简略
stable-diffusion-webui的介绍与使用——Controlnet1.1

线稿上色感

stable-diffusion-webui的介绍与使用——Controlnet1.1

1.10 动漫线稿上色-anime lineart

stable-diffusion-webui的介绍与使用——Controlnet1.1
stable-diffusion-webui的介绍与使用——Controlnet1.1

*1.11 图片-排布随机-重绘 Shuffle(实验行功能)

Model file: control_v11e_sd15_shuffle.pth
Config file: control_v11e_sd15_shuffle.yaml

stable-diffusion-webui的介绍与使用——Controlnet1.1

生成人物
stable-diffusion-webui的介绍与使用——Controlnet1.1

配合mul-contolnet

stable-diffusion-webui的介绍与使用——Controlnet1.1

1.12 Instruct Pix2Pix (实验性功能)

Model file: control_v11e_sd15_ip2p.pth
Config file: control_v11e_sd15_ip2p.yaml

基于instrcuct pix2pix的数据集训练的
stable-diffusion-webui的介绍与使用——Controlnet1.1

1.13 对原图进行修复(Inpaint)

Model file: control_v11p_sd15_inpaint.pth
Config file: control_v11p_sd15_inpaint.yaml
stable-diffusion-webui的介绍与使用——Controlnet1.1

Model file: control_v11f1e_sd15_tile.pth
Config file: control_v11f1e_sd15_tile.yaml

1.14 图片细节重构(Tile)

Model file: control_v11f1e_sd15_tile.pth
Config file: control_v11f1e_sd15_tile.yaml

stable-diffusion-webui的介绍与使用——Controlnet1.1

安装

本机安装

服务器安装方法

git clone https://github.com/Mikubill/sd-webui-controlnet
git clone https://github.com/fkunn1326/openpose-editor.git

附录

论文以及原理

2302.Adding Conditional Control to Text-to-Image Diffusion Models
stable-diffusion-webui的介绍与使用——Controlnet1.1文章来源地址https://www.toymoban.com/news/detail-499340.html

到了这里,关于stable-diffusion-webui的介绍与使用——Controlnet1.1的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • 使用stable-diffusion-webui 运行模型

    操作系统: Windows11 显卡: RTX2060 6GB 显存 下载 Python3.10.6 安装 image.png 注意勾选 Add Python 3.10.6 to PATH ,然后一路 下一步 即可 image.png 打开powershell, 确认安装成功 image.png 下载git image.png 完成安装 image.png 下载 为了避免找不到开源项目,可以像上图中的我一样, 先在用户目录建立一

    2024年02月12日
    浏览(77)
  • Stable-diffusion-webui 本地部署及使用

    1.安装conda; 2.创建conda env 和python 3.10.6; conda create --name stable-diffusion-webui python=3.10.6 3.更新pip; 4.安装cuda 11.8; https://developer.nvidia.com/cuda-toolkit-archive 5.克隆stable-diffusion-webui仓库 ; 6.下载SD模型 下载stablediffusion预训练模型至stable-diffusion-webui/models/stable-diffusion; V1.4 V1.5 7.运行

    2024年02月10日
    浏览(51)
  • 【AI】Stable-Diffusion-WebUI使用指南

    注:csdn对图片有审核,审核还很奇葩,线稿都能违规,为保证完整的阅读体验建议移步至个人博客阅读 最近AI绘画实现了真人照片级绘画水准,导致AI绘画大火,公司也让我研究研究,借此机会正好了解一下深度学习在AIGC(AI Generated Content)----人工智能自动内容生成领域的应用

    2024年02月07日
    浏览(63)
  • stable-diffusion-webui 中 Controlnet 使用说明

    Controlnet 允许通过线稿、动作识别、深度信息等对生成的图像进行控制。 自动安装 在 stable-diffusion-webui 页面上找到 Extensions - Install from URL ,输入插件的 git 地址,然后点击 Install 即可, URL 如下: 等待 loading 结束后,页面底部会出现 Installed into xxx. Use Installed tab to restart. 提示

    2024年02月06日
    浏览(69)
  • AIGC文生图:stable-diffusion-webui部署及使用

    Stable Diffusion Web UI 是一个基于 Stable Diffusion 的基础应用,利用 gradio 模块搭建出交互程序,可以在低代码 GUI 中立即访问 Stable Diffusion Stable Diffusion 是一个画像生成 AI,能够模拟和重建几乎任何可以以视觉形式想象的概念,而无需文本提示输入之外的任何指导 Stable Diffusion Web

    2024年02月16日
    浏览(80)
  • 使用Unity 接入 Stable-Diffusion-WebUI 文生图生成图像

    这一部分就不多赘诉了,我使用的是B站秋叶大佬的整合包, 要启用API 。 网上蛮多自己配置的,可能需要设密码之类的。经自己测试,使用整合包的话就不配置这个API账号密码了,不然会出现客户端出错,连接不上等问题(可能是我操作不当,我也还没研究透) 附带:可以下一

    2024年04月12日
    浏览(45)
  • Stable-Diffusion-WebUI从代码下载到使用技巧

    本文用于对AI绘画感兴趣但无计算机编程基础的人,包含本人安装和使用过程中的心得,可供新学者参考。 心理准备: 电脑性能越高越好,最好有高端显卡,如30系以上。低端显卡也可以,速度和质量感人就是; 会要求下载一些软件、模型,涉及环境变量设置、虚拟环境安装

    2024年02月10日
    浏览(69)
  • 【AI作画】使用stable-diffusion-webui搭建AI作画平台

    进入官网下载安装包https://www.anaconda.com/并安装,然后将Anaconda配置到环境变量中。 打开命令行,依次通过如下命令创建Python运行虚拟环境。 笔者的显卡为NVIDIA,需安装NVIDIA的开发者工具进入官网https://developer.nvidia.com/,根据自己计算机的系统情况,选择合适的安装包下载安装

    2024年01月21日
    浏览(60)
  • AI画图_stable-diffusion-webui安装使用指南(1)

    本文章适用于: 有一定学习能力和钻研能力,遇到问题能合理使用搜索引擎尝试解决问题的人 想在windows系统中尝试使用AI作画工具stable-diffusion-webui进行绘画的人 有一定的计算机基础(会 魔法上网 、 知道 python和Git)和英文阅读能力的人 显卡为Nvidia(或采用CUDA架构),且性

    2024年01月16日
    浏览(52)
  • 【Stable-Diffusion-WebUI】Windows系统安装Stable-Diffusion-WebUI

    基于 stable-diffusion 封装的 webui 开源项目,通过界面交互的方式来使用 stable-diffusion,降低了使用门槛,可以通过本地部署的方式进行访问,对电脑的配置要求较高,以下配置要求仅供参考 第一步:安装python3.10(这步可以跳过,3.8以上即可) 第二步:使用git下载stable diffusio

    2024年02月11日
    浏览(79)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包