【Stable Diffusion】ControlNet基本教程(四)

这篇具有很好参考价值的文章主要介绍了【Stable Diffusion】ControlNet基本教程(四)。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

本文概要

接上篇【Stable Diffusion】ControlNet基本教程(三),本篇再介绍两个ControlNet常见的基本用法:控制人物动作和建筑/室内生成。让人物摆出特定的动作,这是ControlNet最神级的操作!这意味着可以自定义姿势,这意味着AI绘图正式进入自主可控的世代!而建筑/室内设计生成则给做设计的小伙伴带来更多灵感,并且减少渲染等很多重复、繁琐的工作,帮助设计师更专注于设计本身。

3.5 控制人物动作

(1)openpose editor插件安装
①打开扩展(Extension)标签
②点击从网址安装(Install from URL)
③在扩展的 git 仓库网址(URL for extension’s git repository)处输入“https://github.com/fkunn1326/openpose-editor”
④点击安装(Install)
⑤重启 WebUI
【Stable Diffusion】ControlNet基本教程(四)
(2) 人物骨架的创建
在openpose editor标签页下点击detect from选择你想要侦测骨架的图片,系统自动根据图片大小确定比例和人物骨架,点击add直接添加默认人物骨架,可以通过多次点击add来添加多个人物骨架。调整人物骨架,顶点表示的就是关节的位置,通过调节顶点的位置,修改人物整体的姿态,尽量保持骨架关节的比例大小不变,然后对关节进行调整,完成点击send to txt2img。
【Stable Diffusion】ControlNet基本教程(四)
(3)绘制个性化人物
在openpose editor完成骨架创建后,点击send to txt2img发送,这个时候你在txt2img标签栏下的controlnet下拉式菜单中可以找到你刚刚创建的人物骨架
①点击enable启用controlnet
②Preprocessor保持none(重要),controlnet的model选择openpose
③输入图片提示词和相关参数生成人物图片
这样就能get到Lisa的同款姿势的人物图片了:
【Stable Diffusion】ControlNet基本教程(四)
Stable Diffusion checkpoint:chilloutmix_NiPrunedFp32Fix
Promp:bbest quality, masterpiece,best quality,official art,extremely detailed CG unity 8k wallpaper, (photorealistic:1.4), colorful, (Kpop idol), (aegyo sal:1),((puffy eyes)), full body,
(cyberpunk girl), (augmented reality:1), (neon lights), 1girl, blonde grey long hair,thick lips, blue contact lenses, hand on another’s hip, silver cybernetic implants,long sleeves,black crop top, black leather jacket, purple metallic leggings, silver metallic boots,halo, earrings, pendant, wristband, armlet,
Negative prompt:paintings, sketches, (worst quality:2), (low quality:2), (normal quality:2), lowres, normal quality, ((monochrome)), ((grayscale)), skin spots, acnes, skin blemishes, age spot)
Steps:28
Sampler:DPM++ SDE Karras
CFG Scale:8
Seed:-1
Denoising strength:0.45
Hires steps:20
Upscaler:Latent(bicubic antialised))

3.6 建筑/室内生成

(1)上传需要处理的图像(Drop Image Here or Click to Upload)
在SketchUP或者其他任何建模软件中简单地拉一个体块,导出图像就可以了
【Stable Diffusion】ControlNet基本教程(四)
(2)图像边缘处理
启用ControlNet,在“预处理(Preprocessor)”中选择“mlsd”,在“模型(Model)”中选择和预处理一致的“control_mlsd”
mlsd用于直线检测,适用于四四方方的场景,比如建筑物、城市规划、景观设计、室内设计等。
生成的预处理图就是很正直的线条:
【Stable Diffusion】ControlNet基本教程(四)
(3)图像生成
在预处理图的基础上,选择大模型,大模型的选择还是可以多尝试,现在也出现了专门的用于建筑设计的大模型,可以在https://civitai.com/中筛选Checkpoint,在搜索框中输入“#architecture”,就可以出现很多专门用于建筑设计的大模型
【Stable Diffusion】ControlNet基本教程(四)
输入描述词,也可以配合lora等参数,就可以生成建筑/室内图像了
图像示例:
【Stable Diffusion】ControlNet基本教程(四)
Stable Diffusion checkpoint:Aiarch_7000
Promp:landscape architecture,masterplan,(forest),plaza,pavement road,(river),dvArchModern,hyperrealistic,super detailed,delicate,intricate,high dynamic,high dynamic range
Negative prompt:signature,soft,blurry,drawing,sketch,poor quality,ugly,text,type,word,logo,pixelated,low resolution,saturated,high contrast,oversharpened)
【Stable Diffusion】ControlNet基本教程(四)
Stable Diffusion checkpoint:chilloutmix_NiPrunedFp32Fix
Promp:landscape architecture,masterplan,(forest),plaza,pavement road,(river),dvArchModern,hyperrealistic,super detailed,delicate,intricate,high dynamic,high dynamic range
Negative prompt:signature,soft,blurry,drawing,sketch,poor quality,ugly,text,type,word,logo,pixelated,low resolution,saturated,high contrast,oversharpened)
通过四篇博客,博主从ControlNet的基本概念、作用、操作流程、基本用法进行了总结,还没看过的小伙伴建议翻阅博主讲解ControlNet的其他三篇博文,并最好动手试一试,掌握了这四篇博客的内容,你将对ControlNet有了一个基本的认知,对常见的图像处理也将有一个大概的框架。欢迎点赞、关注、收藏支持一波,更多AI绘画教程敬请期待!文章来源地址https://www.toymoban.com/news/detail-501427.html

到了这里,关于【Stable Diffusion】ControlNet基本教程(四)的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • Stable Diffusion WebUI 控制网络 ControlNet 插件实现精准控图-详细教程

    本文收录于《AI绘画从入门到精通》专栏,专栏总目录:点这里,订阅后可阅读专栏内所有文章。 大家好,我是水滴~~ 本文主要介绍 Stable Diffusion WebUI 一个比较重要的插件 ControlNet(控制网络),主要内容有:ControlNet 的工作原理、如果安装 ControlNet 插件、如何使用 ControlNet

    2024年04月25日
    浏览(41)
  • Stable Diffusion 绘画入门教程(webui)-ControlNet(IP2P)

    上篇文章介绍了深度Depth,这篇文章介绍下IP2P(InstructP2P), 通俗理解就是图生图,给原有图加一些效果,比如下图,左边为原图,右边为增加了效果的图: 玩法流程和之前一样哦 我这里用的大模型是\\\"anything-v5-PrtRE.safetensors\\\",选用不同模型生成效果会有区别,可以自己找喜欢的

    2024年04月25日
    浏览(55)
  • AI绘图:Controlnet在ComfyUI中的使用教程:提升Stable Diffusion可控性

    Controlnet是Stable Diffusion中一个至关重要的功能,它极大地增强了图像生成的可控性。通过引入额外的条件,Controlnet使我们能够更精确地控制生成的图像内容。本教程将详细介绍如何在ComfyUI中使用Controlnet,从而让你的创作过程更加灵活和精确。 在开始使用Controlnet之前,我们需

    2024年04月17日
    浏览(36)
  • Stable Diffusion+ControlNet+Lora 指导AI+艺术设计的WebUI全流程使用教程

    设计师们往往对于新出的绘画工具上手比较艰难,本文针对目前比较火热的Stable Diffusion+ControlNet指导AI艺术设计的工具使用进行全面讲解。很多人会有预感,未来要么设计师被图形学程序员取代,要么会使用AI工具的设计师取代传统设计师,2023年开始,AI辅助设计甚至主导设计

    2024年02月07日
    浏览(52)
  • Stable Diffusion stable-diffusion-webui ControlNet Lora

    Stable Diffusion用来文字生成图片,ControlNet就是用来控制构图的,LoRA就是用来控制风格的 。 国内加速官网: mirrors / AUTOMATIC1111 / stable-diffusion-webui · GitCode 安装参考: Stable Diffusion安装与常见错误(+Lora使用)2023年最新安装教程_cycyc123的博客-CSDN博客 保姆级教程:从0到1搭建St

    2024年02月09日
    浏览(74)
  • Stable Diffusion使用controlnet报错

    1、问题描述,使用controlnet时报错如下 error running process: G:\\0111stable-diffusion-webuiextensionssd-webui-controlnetscriptscontrolnet.py Traceback (most recent call last):   File \\\"G:\\0111stable-diffusion-webuimodulesscripts.py\\\", line 418, in process     script.process(p, *script_args)   File \\\"G:\\0111stable-diffusion-webuiextensi

    2024年02月09日
    浏览(50)
  • Stable Diffusion中的ControlNet插件

    ControlNet 的中文就是控制网,本质上是Stable Diffusion的一个扩展插件,在2023年2月份由斯坦福大学的研究人员开发出来的,能够使创作者轻松地控制AI图像和视频中的对象。它将根据边缘检测、草图处理或人体姿势等各种条件来控制图像生成。ControlNet可以概括为一种简单的稳定

    2024年02月09日
    浏览(49)
  • Stable Diffusion — ControlNet 超详细讲解

    ControlNet 最近非常火🔥!ControlNet 和 Stable Diffusion 的结合使 Stable Diffusion 能够接受指导图像生成过程的条件输入,从而增强了 Stable Diffusion 的性能。今天为大家深入剖析 ControlNet 的工作原理。 ControlNet 是一个控制预训练图像扩散模型(例如 Stable Diffusion)的神经网络。它允许输

    2024年02月09日
    浏览(38)
  • 〔008〕Stable Diffusion 之 ControlNet 篇

    ControlNet 就是控制网,并不需要你多了解它的底层原理,简单来说,在 ControlNet 出来前,你使用 stable diffusion 时生成图片,就像开盲盒 在图片生成出来前,你根本不知道图片内容究竟是怎样的,而 ControlNet 就是对于出图更精准的一种控制 随着 ControlNet 的出现,才真正意义上让

    2024年02月11日
    浏览(45)
  • 精讲stable diffusion的controlNet插件

    controlNet插件是stable diffusion的一个重要插件,甚至可以说正是因为有了controlNet插件,stable diffusion才会具有midjourney所不具备的独特魅力! 我们今天就一起来学习下controlNet插件的安装和每个模型的用法 插件主页 独立的controlNet程序(可独立运行,不依赖于stable diffusion)主页:

    2024年02月06日
    浏览(35)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包