【Stable Diffusion】ControlNet基本教程(二)

这篇具有很好参考价值的文章主要介绍了【Stable Diffusion】ControlNet基本教程(二)。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

接上篇【Stable Diffusion】ControlNet基本教程(一),本篇介绍两个ControlNet常见的基本用法,更多用法欢迎关注博主,博主还会更新更多有趣的内容。
3.ControlNet基本用法
3.1漫画线稿上色
(1)上传需要处理的图像(Drop Image Here or Click to Upload)
【Stable Diffusion】ControlNet基本教程(二)
(2)启用ControlNet,在“预处理(Preprocessor)”中选择“canny”,在“模型(Model)”中选择和预处理一致的“control_canny”(不知道启用、预处理、模型以及后面提到的ControlNet的操作参数在哪的,请翻看上一篇博文【Stable Diffusion】ControlNet基本教程(一))
canny用于识别输入图像的边缘信息,通过从原始图片中边缘检测,提取线稿,来生成同样构图的画面。
(3)选择大模型,不同的大模型显示的图像效果不同,可以多试验几个,这里我使用“dalcfoBm9V2_dalcefoBm9V2”和“chilloutmix_NiPrunedFp32Fix”来试验
(4)输入Prompt和Negative prompt词,根据你的需要来输入,比如,你想要蓝头发,绿背景,就可以输入“blue hair, green background”,当然,你也可以根据你的需求输入其他的描述词,上衣的颜色,裙子的颜色等等
(5)可以配合使用lora,生成不同画风的图像,比如,这里我使用了前面lora教程里提到的“墨心lora”(详情查看博文【Stable Diffusion】lora的基础使用技巧)
效果如下:
【Stable Diffusion】ControlNet基本教程(二)
(大模型:dalcfoBm9V2_dalcefoBm9V2
描述词:masterpiece,cute girl, blue hair,green background, < lora:MoXinV1:0.7 >)
【Stable Diffusion】ControlNet基本教程(二)
(大模型:chilloutmix_NiPrunedFp32Fix
描述词:masterpiece,cute girl, green background, < lora:MoXinV1:0.7 >)
效果还是蛮不错的!不会画画也可以轻松上色,这里只是简单示范,如果还想有更多效果,可以对相应的参数进行调整
3.2随机涂鸦生成
(1)启用ControlNet,在“预处理(Preprocessor)”中选择“scribble”,在“模型(Model)”中选择和预处理一致的“control_scribble”
“scribble”表示涂鸦,自由度更大
(2)点击“创建空白画布(Create Blank Canvas)”
(3)可以在“画布宽度和高度(Canvas Width 和 Canvas Height)”中对空白画布的长宽进行调整
(4)点击画布旁边的“笔”的图形,可以对画笔大小进行调整
【Stable Diffusion】ControlNet基本教程(二)
(5)在画布上随机涂鸦
【Stable Diffusion】ControlNet基本教程(二)
(6)选择大模型,还是可以多试验一下,不同的大模型,效果不同
(7)输入Prompt和Negative prompt词,这里还是根据你的需要进行输入,我这里输入的“阳光,沙滩,海浪,仙人掌”
(8)还是可以配合lora等模型,生成不同效果的图像
效果实例如下:
【Stable Diffusion】ControlNet基本教程(二)
(大模型:chilloutmix_NiPrunedFp32Fix
描述词:materpiece, best quality, sun, waves, cacti, house on the beach)
【Stable Diffusion】ControlNet基本教程(二)(大模型:dalcfoBm9V2_dalcefoBm9V2
描述词:materpiece, best quality, sun, waves, cacti, house on the beach, < lora:MoXinV1:0.7 >)
以上只是ControlNet的两个简单用法,后面还有更丰富、使用的操作,欢迎点赞、关注、收藏支持一波,更多AI绘画教程敬请关注!文章来源地址https://www.toymoban.com/news/detail-495476.html

到了这里,关于【Stable Diffusion】ControlNet基本教程(二)的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • Stable Diffusion进阶!姥姥都能看懂的ControlNet超全教程

    前言 Hello,大家好,言川又来写教程啦!!这是一篇继《外婆都能看懂的 Stable Diffusion 入门教程》教程之后的一篇文章,如果你还没有安装并了解 Stable diffusion 这个软件,那么你一定要先去看看入门教程的文章,然后安装 Stable Diffusion。 一、Controlnet(图像精准控制)是什么

    2024年02月09日
    浏览(44)
  • Stable Diffusion WebUI 控制网络 ControlNet 插件实现精准控图-详细教程

    本文收录于《AI绘画从入门到精通》专栏,专栏总目录:点这里,订阅后可阅读专栏内所有文章。 大家好,我是水滴~~ 本文主要介绍 Stable Diffusion WebUI 一个比较重要的插件 ControlNet(控制网络),主要内容有:ControlNet 的工作原理、如果安装 ControlNet 插件、如何使用 ControlNet

    2024年04月25日
    浏览(44)
  • Stable Diffusion 绘画入门教程(webui)-ControlNet(IP2P)

    上篇文章介绍了深度Depth,这篇文章介绍下IP2P(InstructP2P), 通俗理解就是图生图,给原有图加一些效果,比如下图,左边为原图,右边为增加了效果的图: 玩法流程和之前一样哦 我这里用的大模型是\\\"anything-v5-PrtRE.safetensors\\\",选用不同模型生成效果会有区别,可以自己找喜欢的

    2024年04月25日
    浏览(57)
  • AI绘图:Controlnet在ComfyUI中的使用教程:提升Stable Diffusion可控性

    Controlnet是Stable Diffusion中一个至关重要的功能,它极大地增强了图像生成的可控性。通过引入额外的条件,Controlnet使我们能够更精确地控制生成的图像内容。本教程将详细介绍如何在ComfyUI中使用Controlnet,从而让你的创作过程更加灵活和精确。 在开始使用Controlnet之前,我们需

    2024年04月17日
    浏览(39)
  • Stable Diffusion+ControlNet+Lora 指导AI+艺术设计的WebUI全流程使用教程

    设计师们往往对于新出的绘画工具上手比较艰难,本文针对目前比较火热的Stable Diffusion+ControlNet指导AI艺术设计的工具使用进行全面讲解。很多人会有预感,未来要么设计师被图形学程序员取代,要么会使用AI工具的设计师取代传统设计师,2023年开始,AI辅助设计甚至主导设计

    2024年02月07日
    浏览(56)
  • Stable Diffusion stable-diffusion-webui ControlNet Lora

    Stable Diffusion用来文字生成图片,ControlNet就是用来控制构图的,LoRA就是用来控制风格的 。 国内加速官网: mirrors / AUTOMATIC1111 / stable-diffusion-webui · GitCode 安装参考: Stable Diffusion安装与常见错误(+Lora使用)2023年最新安装教程_cycyc123的博客-CSDN博客 保姆级教程:从0到1搭建St

    2024年02月09日
    浏览(78)
  • Stable Diffusion使用controlnet报错

    1、问题描述,使用controlnet时报错如下 error running process: G:\\0111stable-diffusion-webuiextensionssd-webui-controlnetscriptscontrolnet.py Traceback (most recent call last):   File \\\"G:\\0111stable-diffusion-webuimodulesscripts.py\\\", line 418, in process     script.process(p, *script_args)   File \\\"G:\\0111stable-diffusion-webuiextensi

    2024年02月09日
    浏览(52)
  • Stable Diffusion中的ControlNet插件

    ControlNet 的中文就是控制网,本质上是Stable Diffusion的一个扩展插件,在2023年2月份由斯坦福大学的研究人员开发出来的,能够使创作者轻松地控制AI图像和视频中的对象。它将根据边缘检测、草图处理或人体姿势等各种条件来控制图像生成。ControlNet可以概括为一种简单的稳定

    2024年02月09日
    浏览(52)
  • 详细解读ControlNet Stable Diffusion代码

    Diffusion models代码解读:入门与实战 前言 :ControlNet的原理部分可以看我之前写的博客《Image-to-Image任务的终结者:详解ControlNet原理与代码》 ,这篇博客主要讲解一下diffusers版本的ControlNet代码,从代码中洞悉原理,加深理解。 目录 原理详解

    2024年02月12日
    浏览(51)
  • 精讲stable diffusion的controlNet插件

    controlNet插件是stable diffusion的一个重要插件,甚至可以说正是因为有了controlNet插件,stable diffusion才会具有midjourney所不具备的独特魅力! 我们今天就一起来学习下controlNet插件的安装和每个模型的用法 插件主页 独立的controlNet程序(可独立运行,不依赖于stable diffusion)主页:

    2024年02月06日
    浏览(37)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包