Stable Diffusion系列(二):ControlNet基础控件介绍

这篇具有很好参考价值的文章主要介绍了Stable Diffusion系列(二):ControlNet基础控件介绍。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

在下载插件时可以看到,ControlNet 插件的星数遥遥领先,远超其他妖艳贱货。究其原因,是因为其大大增强了使用者对图片生成过程的控制能力,图片的生成同时受到提示词和提示图的影响,使得文生图由抽卡游戏变成了一个更具确定性的创作工具。

ControlNet位置位于文生图界面下方,记得要勾选启用,可控类型包括这么点东西:
Stable Diffusion系列(二):ControlNet基础控件介绍,多模态模型,stable diffusion
接下来我将以喜闻乐见的熊猫花花为例,演示一下关于ControlNet的高端操作
Stable Diffusion系列(二):ControlNet基础控件介绍,多模态模型,stable diffusion

线稿提取类

Canny:边缘检测

如下图所示,图片的生成效果其实分为两步,第一步是使用canny预处理器提取出图片的线稿,第二步是由模型根据线稿和提示词同时绘图,如果你已经有现成的线稿,记得要把预处理器设为none
Stable Diffusion系列(二):ControlNet基础控件介绍,多模态模型,stable diffusion
当我输入以下提示词时,得到了这样的画面,构图确实基本上一致,但说好的女装熊猫呢???你的裙子呢???
Stable Diffusion系列(二):ControlNet基础控件介绍,多模态模型,stable diffusion

Stable Diffusion系列(二):ControlNet基础控件介绍,多模态模型,stable diffusion
问题不大,不就是提示词的分量不够重吗,我直接减小控制权重以及让它不从头开始控制以及让提示词更重要,emmm,勉强算符合要求吧:
Stable Diffusion系列(二):ControlNet基础控件介绍,多模态模型,stable diffusion

SoftEdge:软边缘检测

这其实就是上面的升级版,说是可以保留更多细节,相同设置下,直接看看效果:
Stable Diffusion系列(二):ControlNet基础控件介绍,多模态模型,stable diffusion

Lineart:精细线稿提取

升级升级版,可以理解为是更精细的线稿提取,不错不错,有那味了:
Stable Diffusion系列(二):ControlNet基础控件介绍,多模态模型,stable diffusion

Scribble/Sketch:涂鸦提取

个人感觉是在线稿基础上的“抓住主要矛盾,忽视次要矛盾”,注意这里除了从原图生成涂鸦,也可以自己手动画一个,但我只想说,你是哪来的肥兔子:
Stable Diffusion系列(二):ControlNet基础控件介绍,多模态模型,stable diffusion

MLSD:建筑领域的线条提取

这种线条提取会更注重建筑结构比如景深之类,最经典的应用就是生成房屋效果图,如果强行丢一张非建筑,那只能是这样:
Stable Diffusion系列(二):ControlNet基础控件介绍,多模态模型,stable diffusion
换一张花花的宫殿图试试,只能说它对于建筑的定义有点窄了:
Stable Diffusion系列(二):ControlNet基础控件介绍,多模态模型,stable diffusion

3D提取类

下面就不放根据提示词重生成的图了,看着都大同小异(懒得放图了),只放第一步预处理的结果

Normal map:法线贴图

跟黑白线稿相比,可以很好地保存原图的光影效果以及表面的凹凸情况:
Stable Diffusion系列(二):ControlNet基础控件介绍,多模态模型,stable diffusion

Depth:深度计算

提取画面的景深图,颜色越浅,距离越近,可以在图生图用来重新生成背景:

Stable Diffusion系列(二):ControlNet基础控件介绍,多模态模型,stable diffusion

Segmentation:语义分割

从结构方面提取画面的信息,可以手动在语义分割图中添加新的语义块完成图生图任务:
Stable Diffusion系列(二):ControlNet基础控件介绍,多模态模型,stable diffusion

属性继承

Shuffle:风格迁移

提取原图的绘画风格并迁移到新生成的图上,不得不说,这还是绘画或者游戏场景下比较适合,对熊猫来说这种艺术还是太超前了:
Stable Diffusion系列(二):ControlNet基础控件介绍,多模态模型,stable diffusion

OpenPose:姿态提取

熊猫的姿态就不算姿态了吗?气鼓鼓
Stable Diffusion系列(二):ControlNet基础控件介绍,多模态模型,stable diffusion
来个正常的人类:
Stable Diffusion系列(二):ControlNet基础控件介绍,多模态模型,stable diffusion

Reference:整体保留

这个可以看做是上面种种的集大成者,可以用来在画面主体对应的个体不变的情况下改变动作或场景,比如对于提示词奔跑的熊猫就会生成下面这堆东西,不过还是没有画出花花的神韵,Stable Diffusion系列(二):ControlNet基础控件介绍,多模态模型,stable diffusion

Revise:整体提示

其实跟Reference有点像,它的思路是直接把输入的原图作为提示词,可以文字提示词设为空直接跑,也可以与文字提示词一起用,但为什么熊猫变成了猎豹呢,可能是一个名字里有猫,一个是猫科动物吧:
Stable Diffusion系列(二):ControlNet基础控件介绍,多模态模型,stable diffusion

图片重绘

Tile/Blur:增加/减少细节

前者用来做高清修复,后者用来做画面模糊,试试先模糊后修复的效果如何,高清修复不是很高啊:
Stable Diffusion系列(二):ControlNet基础控件介绍,多模态模型,stable diffusion
Stable Diffusion系列(二):ControlNet基础控件介绍,多模态模型,stable diffusion

Recolor:重新上色

原理很简单,首先把彩色改成黑白,然后在黑白图上根据提示词重新上色:
Stable Diffusion系列(二):ControlNet基础控件介绍,多模态模型,stable diffusion

InstructP2P:指令修图

这个需要在图生图页面中启用,输入make it snow,效果看着还不错:
Stable Diffusion系列(二):ControlNet基础控件介绍,多模态模型,stable diffusion

Inpaint:局部重绘

这个需要在图生图下的手绘蒙版页面中启用,花花变花猪:
Stable Diffusion系列(二):ControlNet基础控件介绍,多模态模型,stable diffusion

Stable Diffusion系列(二):ControlNet基础控件介绍,多模态模型,stable diffusion
Stable Diffusion系列(二):ControlNet基础控件介绍,多模态模型,stable diffusion

其他

剩下这俩都是腾讯搞的,感觉就是mini版ControlNet,就先不细说了文章来源地址https://www.toymoban.com/news/detail-754369.html

T2I-Adapter:文字到图片自适应

IP-Adapter:指令图片自适应

到了这里,关于Stable Diffusion系列(二):ControlNet基础控件介绍的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • Stable Diffusion基础:ControlNet之人体姿势控制

    在AI绘画中精确控制图片是一件比较困难的事情,不过随着 ControlNet 的诞生,这一问题得到了很大的缓解。 今天我就给大家分享一个使用Stable Diffusion WebUI + OpenPose ControlNet 复制照片人物姿势的方法,效果可以参考上图。 OpenPose 可以控制人体的姿态、面部的表情,有时候还能够

    2024年02月13日
    浏览(28)
  • Stable Diffusion基础:ControlNet之图片高仿效果

    今天继续给大家分享AI绘画中 ControlNet 的强大功能,本次的主角是 Reference,它可以将参照图片的风格迁移到新生成的图片中,这句话理解起来很困难,我们将通过几个实例来加深体会,比如照片转二次元风格、名画改造、AI减肥成功图片制作、绘本小故事等等。 还有之前看很

    2024年02月12日
    浏览(28)
  • stable-diffusion-webui的介绍与使用——Controlnet1.1

    源码地址:https://github.com/lllyasviel/ControlNet | 最新 版本 controlnet-v1.1 论文 地址:2302.Adding Conditional Control to Text-to-Image Diffusion Models 扩展 UI地址 (需先安装sd-webui):https://github.com/Mikubill/sd-webui-controlnet 相关博文 相关博文- stable-diffusion-webui的基础功能手动安装,了解代码结构、

    2024年02月10日
    浏览(45)
  • Stable Diffusion基础:ControlNet之重新上色(黑白照片换新颜)

    本文给大家分享 Stable Diffusion 的基础能力:ControlNet 之重新上色。 这是一个最近新上的 ControlNet 模型,它可以识别图像中的不同区域,并使用不同的颜色重新绘制它们。 工欲善其事必先利其器,ControlNet 还是先要安装好的,已经安装好的请跳过这一步。 之前的文章已经介绍过

    2024年02月08日
    浏览(33)
  • Stable Diffusion Controlnet V1.1 的14种基础标志用法

    用于ControlNet和其他基于注入的SD控件的WebUI扩展。针对 AUTOMATIC1111 的 Stable Diffusion web UI 网络用户界面的扩展,它可以让网络界面在原始的 Stable Diffusion 模型中添加 ControlNet 条件来生成图像。 这种添加是实时的不需要进行合并。使人们能从参考图像复制构图或人物姿态。老练的

    2024年02月04日
    浏览(22)
  • AI 绘画Stable Diffusion 研究(二)sd模型ControlNet1.1 介绍与安装

    部署包作者:秋葉aaaki 免责声明: 本安装包及启动器免费提供 无任何盈利目的 大家好,我是风雨无阻。 众所周知,StableDiffusion 是非常强大的AI绘图工具,需要详细了解StableDiffusion的朋友,可查看我之前的这篇文章: 最近大火的两大AI绘图工具 Midjourney VS StableDiffusion。 今天为大

    2024年02月15日
    浏览(44)
  • 【AI绘画】万字长文——(超详细)ControlNet的详细介绍&使用Stable Diffusion的艺术二维码完全生成攻略

    详细介绍ControlNet的各个部分,相关案例,以及使用二维码作为ControlNet模型的输入的Stable Diffusion生成的图像,使二维码转变为艺术图像 Stable Diffusion :是StabilityAI于2022年8月22日发布的文本到图像模型。它类似于OpenAI的DALL·E 2和Midjourney等其他图像生成模型,但有一个很大的不同

    2024年02月05日
    浏览(33)
  • Stable Diffusion stable-diffusion-webui ControlNet Lora

    Stable Diffusion用来文字生成图片,ControlNet就是用来控制构图的,LoRA就是用来控制风格的 。 国内加速官网: mirrors / AUTOMATIC1111 / stable-diffusion-webui · GitCode 安装参考: Stable Diffusion安装与常见错误(+Lora使用)2023年最新安装教程_cycyc123的博客-CSDN博客 保姆级教程:从0到1搭建St

    2024年02月09日
    浏览(40)
  • Stable Diffusion使用controlnet报错

    1、问题描述,使用controlnet时报错如下 error running process: G:\\0111stable-diffusion-webuiextensionssd-webui-controlnetscriptscontrolnet.py Traceback (most recent call last):   File \\\"G:\\0111stable-diffusion-webuimodulesscripts.py\\\", line 418, in process     script.process(p, *script_args)   File \\\"G:\\0111stable-diffusion-webuiextensi

    2024年02月09日
    浏览(43)
  • Stable Diffusion中的ControlNet插件

    ControlNet 的中文就是控制网,本质上是Stable Diffusion的一个扩展插件,在2023年2月份由斯坦福大学的研究人员开发出来的,能够使创作者轻松地控制AI图像和视频中的对象。它将根据边缘检测、草图处理或人体姿势等各种条件来控制图像生成。ControlNet可以概括为一种简单的稳定

    2024年02月09日
    浏览(36)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包