ControlNet引导生成图像的详细教程

这篇具有很好参考价值的文章主要介绍了ControlNet引导生成图像的详细教程。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

前言

Stable Diffusion是目前图像生成领域的大杀器,ControlNet的目标就是添加额外的条件来控制最后的生成图像,包括边缘检测、深度估计、分割、姿势估计、涂鸦等功能。
ControlNet引导生成图像的详细教程

Stable diffusion WebUI

配置环境

首先需要安装 Anacomda或者Miniconda软件,方便管理我们的虚拟环境,这里默认大家都已经装好这个软件。
ControlNet引导生成图像的详细教程
打开Anaconda Prompt或者Miniconda,新建一个名为sd_webui的虚拟环境,这里python版本必须是3.10.6,否则有可能失败。这里需要配置镜像源,给大家看一下我的C://user/***/.condarc文件里的内容。

channels:
  - https://mirrors.ustc.edu.cn/anaconda/cloud/msys2/
  - https://mirrors.ustc.edu.cn/anaconda/cloud/conda-forge/
  - https://mirrors.ustc.edu.cn/anaconda/pkgs/free/
  - https://mirrors.ustc.edu.cn/anaconda/pkgs/main/
  - defaults
show_channel_urls: true

没有配置镜像源的可以直接替换原来的内容即可,接下来创新虚拟环境。

conda create -n sd_webui python=3.10.6

中途会提示y/n,这里输入y后回车即可。
ControlNet引导生成图像的详细教程
等待虚拟环境创建成功后进入环境。

activate sd_webui

ControlNet引导生成图像的详细教程
升级pip


python.exe -m pip install --upgrade pip

更改pip的默认下载路径为清华源镜像,这里镜像源很多,可以根据实际情况更改。

pip config set global.index-url https://pypi.tuna.tsinghua.edu.cn/simple

此外,需要安装CUDA,这里我没有安装,因为我这个电脑之前跑深度学习本身就有CUDA。相信配置过深度学习的同学应该很快就能装好。需要注意的是,我的CUDA版本是11.1,虽然安装的过程中下载的是与CUDA11.7对应的pytorch,却依旧可以运行成功。

下载stable diffusion webui

安装Git,默认大家已经安装好这个软件,官网:https://git-scm.com/download/win
利用Git从官网克隆stable diffusion webui仓库,这个代码不需要在Git中运行,直接在Anaconda Prompt或者Miniconda里使用Git命令也可以。此时会默认克隆仓库到当前路径下,比如下边的情况下会克隆到H盘根目录下。
ControlNet引导生成图像的详细教程
克隆stable diffusion webui仓库,当然一般克隆的时候得科学上网。

git clone https://github.com/AUTOMATIC1111/stable-diffusion-webui.git

等待下载到本地即可,过程中可能会出现以下几种错误:

OpenSSL SSL_read: Connection was reset, errno 10054
fatal: unable to access ‘https://github.com/AUTOMATIC1111/stable-diffusion-webui.git’: Failed to connect to github.com port 443: Connection refused
Failed to connect to github.com port 443 after 21100 ms: Timed out
或者就是克隆过程很慢

此时可以尝试的方法包括但不限于以下几种:

# 关闭证书校验
git config --global http.sslverify "false"

# 取消全局代理
git config --global --unset http.proxy
git config --global --unset https.proxy

# 换服务器的节点
# 配置Git的端口号

解释一下最后一个方法,这个方法可以解决就算科学上网了依旧克隆非常缓慢的问题。首先这里由于我们使用了代理服务器,打开网络设置到代理,可以发现这里有地址和端口两个信息。
ControlNet引导生成图像的详细教程
记住地址和端口,利用下边的代码配置Git。

git config --global http.proxy 127.0.0.1:10809

随后可以发现Git克隆的速度直接拉满,相比之前的几十kb属实令人赏心悦目不少。
ControlNet引导生成图像的详细教程
显示done则表示克隆成功。当然以上的方法也未必能够解决所有问题,大家在实际过程中遇到不能解决的问题或解决方案欢迎告知我。
现在打开自己刚开克隆的H盘根目录就会发现已经出现文件夹stable-diffusion-webui,具体的盘符或者路径根据实际情况修改。

接下来下载stable diffusion的预训练模型,官网:https://huggingface.co/runwayml/stable-diffusion-v1-5/tree/main,点击Files and versions,下载红线画出来的文件,任意一个应该都可以。这里我下载的是蓝色标出的文件。
ControlNet引导生成图像的详细教程
下载完成后,放在D:\stable-diffusion-webui\models\Stable-diffusion路径下。

安装torch和torchvision

在Anaconda Prompt或者Miniconda中进入到stable diffusion webui的路径下

D:
cd stable-diffusion-webui

运行webui-user.bat文件
ControlNet引导生成图像的详细教程
此时会首先执行stable diffusion webui下的launch.py文件,就是安装torch,torchvision,其他的一些包以及克隆一些github仓库。因为这个过程肯定不会一次成功,因此先说明一下,在windows的命令行运行过程中,可以使用两下CTRL+C来退出进程。
打开launch.py到prepare_envitonment函数可以发现要求的torch和torchvision版本是

pip install torch==1.13.1+cu117 torchvision==0.14.1+cu117

由于torch这个包比较大,如果在线安装不能成功的话,也可以离线安装,即先下载对应的 .whl 文件,官网:https://download.pytorch.org/whl/torch_stable.html,找到cu117开头的路径,下载对应的python3.10的torch和torchvision。
ControlNet引导生成图像的详细教程ControlNet引导生成图像的详细教程
下载完成后就放在stable diffusion webui路径下,使用pip安装即可,注意要先装torch再装torchvision。

pip install torch-1.13.1+cu117-cp310-cp310-win_amd64.whl
pip install torchvision-0.14.1+cu117-cp310-cp10-win_amd64.whl

在线安装还是离线安装可以根据实际情况来定,安装完成后再次运行webui-user.bat如果还是会进入安装torch和itorchvision的步骤,就前往launch.py文件注释掉这一行即可。
ControlNet引导生成图像的详细教程
如果以上做完后,运行webui-user.bat后会先安装一些别的包,随后出现Installing gfpgan则表明上述的安装已经成功。

克隆GFPGAN、CLIP、open_clip、stable_diffusion、taming-transformers、k-diffussion、CodeFormer、BLIP等仓库

一般在运行到安装这些仓库的时候大概率不成功,但如果前边已经将Git克隆的诸多问题都解决了的话应该可以一次成功。
这里说明一下不成功的时候该如何解决,不成功的报错就是:

RuntimeError: Couldn't install ***

这里我之前尝试之前的设置Git端口的形式解决了。如果不能解决,这里有两种解决办法,建议先看完再尝试。

1. 我们可以先采用Git克隆下来的方式一将这些包克隆下来再复制到D:\stable-diffusion-webui\repositories路径下,这里必须按照launch.py文件里的安装顺序来,如下
ControlNet引导生成图像的详细教程
Xformer是一个选装的包,可装可不装,应该是显卡显存不大的话装一下比较好。这里只说后边的包。这些语句的后边都跟着对应的github链接,如果对应的链接后边有一个@**************,就把@连同后边的字符串全部删掉,记得保存一下。
ControlNet引导生成图像的详细教程
全部使用Git克隆下来,如下

git clone https://github.com/TencentARC/GFPGAN.git
git clone https://github.com/openai/CLIP.git
git clone https://github.com/mlfoundations/open_clip.git
git clone https://github.com/Stability-AI/stablediffusion.git
git clone https://github.com/CompVis/taming-transformers.git
git clone https://github.com/crowsonkb/k-diffusion.git'
git clone https://github.com/sczhou/CodeFormer.git'
git clone https://github.com/salesforce/BLIP.git'

如果在Git里没有修改当前路径的话会默认全部克隆到C:\Users\***路径下。
ControlNet引导生成图像的详细教程
由于直接克隆下来的文件夹名字与launch.py文件里的不一致,因此,这里还需要改一下文件夹名字,如图
ControlNet引导生成图像的详细教程
修改完名字后复制将图片中的几个包复制到D:\stable-diffusion-webui\repositories路径下即可。需要注意的是,这里没有复制GFPGAN、CLIP和open_clip三个包,因为这三个包的安装方式不太一样。
首先将着三个包复制到D:\stable-diffusion-webui\venv\Scripts路径下:
ControlNet引导生成图像的详细教程
在Anaconda Prompt或者Miniconda里cd到三个包的路径下,比如GFPGAN的路径就是:D:\stable-diffusion-webui\venv\Scripts\GFPGAN,分别输入

cd D:\stable-diffusion-webui\venv\Scripts\GFPGAN
D:\\stable-diffusion-webui\venv\Scripts\python.exe setup.py build install
cd D:\stable-diffusion-webui\venv\Scripts\CLIP
D:\\stable-diffusion-webui\venv\Scripts\python.exe setup.py build install
cd D:\stable-diffusion-webui\venv\Scripts\open_clip
D:\\stable-diffusion-webui\venv\Scripts\python.exe setup.py build install

这样就安装好了所有的包。

2. 以上使用Git克隆的包实际上都不需要采用clone的方式,也可以直接下载.zip解压即可。使用Git的原因是为了方便后续更新。
ControlNet引导生成图像的详细教程
但是需要注意的是直接下载的.zip文件解压后包的名字会多出来一个-main或者-master,比如
ControlNet引导生成图像的详细教程
在进入路径的时候与之前的名字就存在区别。
此时再次运行webui-user.bat就会完成安装这些大包的环节,而是去安装一些其他的依赖。等待安装完成后就会输出当前权重加载的路径、配置文件等信息。
如果出现一个本地端口号则表示整个安装过程已经成功,此时最麻烦的部分就结束了。
ControlNet引导生成图像的详细教程
复制这个本地连接到浏览器打开,就会进入webui的界面。
ControlNet引导生成图像的详细教程最左上角的stable diffusion checkpoint会出现我们之前下载的模型,如果没有出现就需要去检查一下是不是位置没放对。注意是放到路径D:\stable-diffusion-webui\models\Stable-diffusion下。
ControlNet引导生成图像的详细教程
我们先来小试牛刀一下,看看能否成功生成图片。在txt2img框里输入Sailor Moon ,这个是美少女战士的意思,点击右边的Generate按钮开始生成,看看生成的结果如何。如果显卡的配置较差可能整个过程耗时比较久。
ControlNet引导生成图像的详细教程
实测发现整个生成过程中需要使用大约6.3g的显存,空间状态下占用5.1g左右的显存。如果想要一次性生成多张图片,可以修改batch count参数的值,比如我这里设置为4。
ControlNet引导生成图像的详细教程
所有的结果会保存在D:\stable-diffusion-webui\outputs路径下,比如我这里是2023年4月1日利用txt2img生成图片,那么结果就会保存在D:\stable-diffusion-webui\outputs\txt2img-images\2023-04-01路径下。因此,可以直接去这里复制图片,同时如果生成次数太多要注意清理这些输出。

安装ControlNet插件

在webui界面点击extensions,再点击Available,在下边的搜索框输入controlnet回车。
ControlNet引导生成图像的详细教程
找到sd-webui-controlnet manipulations,点击右边的install安装插件。
ControlNet引导生成图像的详细教程
安装完成后点击最下边的 Reload UI重新加载页面
ControlNet引导生成图像的详细教程
重新打开页面后可以发现在原来的seed参数下多了一行ControlNet,点击右边的小箭头就可以使用ControlNet了。ControlNet引导生成图像的详细教程
但是这时还没办法直接使用,可以发现Model这个参数为空。
ControlNet引导生成图像的详细教程
因为ControlNet还需要下载专门的模型,否则就没办法来引导专门的这些绘画功能。这里我们先以Scribbles为例,即利用一幅黑色背景的白色轮廓图来涂鸦。
进入模型下载官网:https://huggingface.co/lllyasviel/ControlNet/tree/main/models,选择control_sd15_scribble.pth
文件点击下载。可以选择的模型共8个,每个参数文件大小都是5.71g。
ControlNet引导生成图像的详细教程
进入下一页面后点击download开始下载。ControlNet引导生成图像的详细教程
下载完成后,先在D:\stable-diffusion-webui\models路径下新建一个ControlNet文件夹,如果这个文件夹已经存在那更好。然后将刚才下载所得的参数文件放到这个文件夹里边。
ControlNet引导生成图像的详细教程
返回到webui的controlnet中,点击右边蓝色的按钮刷新参数文件,在更新的列表里选择我们想用来做涂鸦的参数文件。
ControlNet引导生成图像的详细教程
这里我从网上找了一个美少女战士的轮廓图,直接拖动到这里或者点击上传我们的图片。
ControlNet引导生成图像的详细教程
ControlNet引导生成图像的详细教程Enable,
在生成之前需要设置几个参数,Enable,inver input color必须选中,
ControlNet引导生成图像的详细教程
这里我在txt2img框里写的是girl, amine。一般将batch count设置得多一点,因为不是所有的图片都能令人满意。看一看这里输出的结果吧。
ControlNet引导生成图像的详细教程
总体上来说还行,我们再利用另一幅线稿生成一下。
ControlNet引导生成图像的详细教程
ControlNet引导生成图像的详细教程
有的图片里会把耳朵也当成一个眼睛,属实有点吓人。实际生成过程中还可以控制画布大小,图像大小等。当然也有汉化包可以汉化使用,但有时候汉化后反倒不太容易理解本来的意思,因此我这里就不汉化了,有需求的可以前往别处找找教程。
好了,到此为止我们的教程已经结束了。文章来源地址https://www.toymoban.com/news/detail-429104.html

到了这里,关于ControlNet引导生成图像的详细教程的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • Stable diffusion ai图像生成本地部署教程

    前言 本文将用最干最简单的方式告诉你怎么将Stable Diffusion AI图像生成软件部署到你的本地环境 关于Stable Diffusion的实现原理和训练微调请看我其他文章 部署Stable Diffusion主要分为三个部分 下载模型(模型可以认为是被训练好的,生成图像的大脑) 部署Web UI(可通过浏览器访

    2024年02月04日
    浏览(39)
  • Stable Diffusion + EbSynth + ControlNet 解决生成视频闪烁

    下载地址: 解压,配置环境变量 E:AIffmpegbin 检查是否安装成功 插件地址 https://github.com/s9roll7/ebsynth_utility 报错:ModuleNotFoundError: No module named \\\'extensions.ebsyynth_utility 将 目录 ebsyynth_utility-main 改为 ebsyynth_utility. 从官网下载,解压即可 Pip install transparent-background 该代码执行还需

    2024年02月16日
    浏览(35)
  • Stable Diffusion - 图像控制插件 ControlNet (OpenPose) 配置与使用

    欢迎关注我的CSDN:https://spike.blog.csdn.net/ 本文地址:https://spike.blog.csdn.net/article/details/131591887 论文:Adding Conditional Control to Text-to-Image Diffusion Models ControlNet 是神经网络结构,用于控制预训练的大型扩散模型,以支持额外的输入条件。ControlNet 以端到端的方式学习任务特定的条

    2024年02月13日
    浏览(31)
  • 详细解读ControlNet Stable Diffusion代码

    Diffusion models代码解读:入门与实战 前言 :ControlNet的原理部分可以看我之前写的博客《Image-to-Image任务的终结者:详解ControlNet原理与代码》 ,这篇博客主要讲解一下diffusers版本的ControlNet代码,从代码中洞悉原理,加深理解。 目录 原理详解

    2024年02月12日
    浏览(39)
  • Stable Diffusion — ControlNet 超详细讲解

    ControlNet 最近非常火🔥!ControlNet 和 Stable Diffusion 的结合使 Stable Diffusion 能够接受指导图像生成过程的条件输入,从而增强了 Stable Diffusion 的性能。今天为大家深入剖析 ControlNet 的工作原理。 ControlNet 是一个控制预训练图像扩散模型(例如 Stable Diffusion)的神经网络。它允许输

    2024年02月09日
    浏览(28)
  • Stable Diffusion本地部署教程:搭建你的AI图像生成环境

    Stable Diffusion作为一种先进的AI图像生成技术,近年来受到了广泛关注。它可以根据用户输入的文本描述,生成与之相符的详细图像。本文将指导你如何在本地环境中部署Stable Diffusion,让你能够亲自体验这一技术的强大功能。 在开始部署之前,确保你的计算机满足以下条件:

    2024年04月15日
    浏览(48)
  • AI生成图像竟如此真实了?Stable Diffusion Model本地部署教程

    ✅作者简介:人工智能专业本科在读,喜欢计算机与编程,写博客记录自己的学习历程。 🍎个人主页:小嗷犬的个人主页 🍊个人网站:小嗷犬的技术小站 🥭个人信条:为天地立心,为生民立命,为往圣继绝学,为万世开太平。 Stable Diffusion Model 是一个基于扩散模型的图像

    2024年02月02日
    浏览(45)
  • 【Stable Diffusion】ControlNet基本教程(一)

    1.ControlNet是什么 ControlNet是Stable Diffusion用于图像风格迁移和控制的一款插件,作者是2021年才本科毕业,现在在斯坦福大学读博士一年级的中国学生 张吕敏 。ControlNet的出现代表着 AI 生成开始进入 真正可控 的时期,而 AIGC 的可控性 是它进入 实际生产 最关键的一环。在此之前

    2024年02月09日
    浏览(36)
  • 【Stable Diffusion】ControlNet基本教程(二)

    接上篇【Stable Diffusion】ControlNet基本教程(一),本篇介绍两个ControlNet常见的基本用法,更多用法欢迎关注博主,博主还会更新更多有趣的内容。 3.ControlNet基本用法 3.1漫画线稿上色 (1)上传需要处理的图像(Drop Image Here or Click to Upload) (2)启用ControlNet,在“预处理(P

    2024年02月10日
    浏览(35)
  • 【Stable Diffusion】ControlNet基本教程(四)

    接上篇【Stable Diffusion】ControlNet基本教程(三),本篇再介绍两个ControlNet常见的基本用法:控制人物动作和建筑/室内生成。让人物摆出特定的动作,这是ControlNet最神级的操作!这意味着可以自定义姿势,这意味着AI绘图正式进入自主可控的世代!而建筑/室内设计生成则给做

    2024年02月11日
    浏览(39)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包