Stable Diffusion 深度图像库插件使用小记

这篇具有很好参考价值的文章主要介绍了Stable Diffusion 深度图像库插件使用小记。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

前言        

        Controlnet 横空出世以来,Stable Diffusion 从抽卡模式变为 引导控制模式,产生了质的飞跃,再也不用在prompt中钻研如何描述生成人物的动作模式,他对AI画师来说生产力提高不知道多少倍,文末附100个Lora资源方便大家使用。对于论文作者,某渣深感佩服。

ControlNet直译即是控制网,是一个基于 Stable Diffusion 1.5 的轻型预训模型,在开发者张吕敏的论文demo中,他解释说ControlNet通过输入条件来控制预先训练的大型扩散模型,能利用输入图片(input image)里的边缘特征、深度特征 或 人体姿势的骨架特征(posture skeleton),配合文字 prompt,精确引导图像在 SD 1.5 里的生成结果。

这很好地解决了文生图大模型无法控制生成图片的细节这个难题。

简述

        深度模式是Controlnet中可以使用的模式之一,

        Depth模型是通过提取图片中的深度信息,进而生成具有同样深度结构的图。当原图中的人物有前后关系时,depth的效果更好。

        深度模式的方式不在此文赘述,后期研究到了的时候再进行补充。本文仅对深度图像库插件进行总结。

安装

        插件地址:https://download.csdn.net/download/bestpasu/87762319        GitHub - jexom/sd-webui-depth-lib: Depth map library for use with the Control Net extension for Automatic1111/stable-diffusion-webui

 Depth map library for use with the Control Net extension for Automatic1111/stable-diffusion-webui。

 Stable Diffusion 深度图像编辑器插件,配合ControlNet 插件进行图像生成引导,常被用于人像生成中引导手部生成使用。

        该插件可在SD中对深度文件进行管理、编辑、生成,其自身已携带了部分手型深度图库,可直接支持常规手部动作。(常规的意思就是常见,火影的结印都不包括……需要的话可以通过3D工具生成)

        插件的安装比较简单,下载插件后,将其解压在插件目录即可:

~/stable-diffusion-webui/extensions/

 插件结构              

        插件文档结构如下:   

.

├── LICENSE

├── README.md

├── images

│   └── ui.png

├── javascript

│   ├── fabric.js

│   └── main.js

├── maps

│   ├── hands

│   │   ├── 1_back.png

│   │   ├── 1_front.png

│   │   ├── 2_back.png

│   │   ├── 2_close_back.png

│   │   ├── 2_close_front.png

│   │   ├── 2_front.png

│   │   ├── 3_close_back.png

│   │   ├── 3_close_front.png

│   │   ├── 3_spread_back.png

│   │   ├── 3_spread_front.png

│   │   ├── 4_back.png

│   │   ├── 4_front.png

│   │   ├── 5_back.png

│   │   ├── 5_front.png

│   │   ├── YEAH_ROCK_a.png

│   │   ├── YEAH_ROCK_b.png

│   │   ├── bene_1.png

│   │   ├── bene_2.png

│   │   ├── birdie.png

│   │   ├── bowl.png

│   │   ├── bowl_open.png

│   │   ├── fist_bottom.png

│   │   ├── fist_front.png

│   │   ├── fist_side_a.png

│   │   ├── fist_side_b.png

│   │   ├── fist_top.png

│   │   ├── heart_half.png

│   │   ├── knuckle_crack.png

│   │   ├── point_front.png

│   │   ├── point_side_a.png

│   │   └── point_side_b.png

│   └── shapes

│       ├── circle.png

│       ├── hexagon.png

│       ├── square.png

│       └── star.png

└── scripts

    ├── __pycache__

    │   └── main.cpython-310.pyc

    └── main.py

        通过插件文档结构,我们可以看到maps 目录下 有 hands 和 shapes 两个目录,hands目录为手型深度模型图,全为左手(在编辑模式下只要180度水平翻转即可变成右手)。shapes目录为作者的示意目录,maps目录下可以任意新建目录存储不同类别的深度图像。创建后,重载UI界面或重启SD后便可在插件中显示。

Stable Diffusion 深度图像库插件使用小记

 Stable Diffusion 深度图像库插件使用小记

 通过该插件可方便管理深度图模型库,很方便。

使用

下面介绍下具体的用法及一些要点:

深度图像库插件,除了管理深度图像,另一个比较重要的就是配合Controlnet插件使用,经常我们对局部深度图使用时要配合图片或者pose,往往需要进行深度图与pose的姿势配合,通过深度图插件可以较为容易的进行组合。

界面介绍:

Stable Diffusion 深度图像库插件使用小记

宽度-高度

这里用作调整右侧画布大小,一般与要生成的图片画布大小一致,比如在文生图中初始生成512x512大小,这里就填写512x512,如果是512x768,这里就改成512x768,相同的尺寸进行深度图与POSE组合时生成的图像会比较令人满意。

BASE DEPTH

此参数用以调整基础深度数值,调整此数值,可以后续编辑的深度图像有一个基准对比。

添加

此按钮将选择的深度图库中的深度图添加到右侧画布编辑区。

删除已选中

此按钮将选择的深度图从右侧画布删除。(右侧画布不支持del按键)

清空画布

画布清空。

添加背景图

添加pose(火柴人),或者是图画(图生图模式下 进行局部重绘时一般会将原画作为背景上传,然后将深度图增加上进行摆位置)

删除背景

就是删除背景,更换背景时使用。

深度图编辑

深度图添加到右侧后经常需要编辑位置与角度

Stable Diffusion 深度图像库插件使用小记

Stable Diffusion 深度图像库插件使用小记

 上传背景POSE或图像后配合摆深度图位置和姿势

Stable Diffusion 深度图像库插件使用小记

摆好后可以点击保存png或者发送到Controlnet(会转到文生图)

Stable Diffusion 深度图像库插件使用小记

在文生图中开启controlnet,并配合pose图 就可以引导生成结果了 。

Stable Diffusion 深度图像库插件使用小记

        如果生成图不满意某部分,同样可通过添加背景,摆好新的深度图,可以在图生图中进行局部修复重绘某部分,比如修改部分崩掉的手……

Stable Diffusion 深度图像库插件使用小记

后记

        虽然controlnet已经十分强大了,但是手部绘制依然是很难得事情,手部在图像中较大,且景深层次分明的情况下,手部绘制和修复比较容易,如果手部较小,景深图起的作用目前还是比较有限。

文中如有不当之处,欢迎留言交流。

        

整理的100个Lora资源

内容来自于C站,不能魔法访问C站的小伙伴可以下载使用,已经使用C站助手更新了效果图与pormpt及模型信息,下载下来之后直接解压到Lora目录即可使用。

https://download.csdn.net/download/bestpasu/87762524​​​​​​​文章来源地址https://www.toymoban.com/news/detail-488445.html

到了这里,关于Stable Diffusion 深度图像库插件使用小记的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • Stable Diffusion教程之使用Stable Diffusion改进图像分割模型

    作为 ML 工程师,Edge Analytics和Infinity AI的团队非常熟悉与为计算机视觉应用程序获取高质量标记图像相关的挑战。随着生成图像模型的发布,例如来自Stability AI的开源Stable Diffusion,我们探索了使用生成模型来提高特定语义分割模型的性能。 Stable Diffusion是 Stability AI 在今年早些

    2024年02月10日
    浏览(46)
  • AI图像模型的深度分析:DALL·E 3、Google Imagen2、Stable Diffusion 和 Midjourney

    原文:Comparative Analysis of AI Image Generation Platforms: DALL·E 3, Google Imagen2, Stable Diffusion, and Midjourney - Blog 本文提供了对四个AI图像生成模型——DALL·E 3、Google Imagen2、Stable Diffusion以及Midjourney的详细比较。通过十个不同领域的图像生成能力进行比较,文中展示了各个平台的优点和缺点

    2024年02月19日
    浏览(48)
  • stable diffusion的api参数-附带插件使用

    文章转自: stable diffusion的api参数-附带插件使用 | 夜空中最亮的星 img2img 模型:MXCFSuper_Counterfeit VAE:none Clip skip:2  Prompt: Negative Prompt:\\\"\\\" Resize mode:Just resize Sampling method:DPM++ SDE Karras Sampling steps:25 Restore faces:flase Width:所传图片宽度 Height:所传图片高度 Batch count:1 Batch size:1 CFG Scale

    2024年02月13日
    浏览(36)
  • Stable Diffusion WebUI使用AnimateDiff插件生成动画

    AnimateDiff 可以针对各个模型生成的图片,一键生成对应的动图。 GPU显存建议12G以上,在xformers或者sdp优化下显存要求至少6G以上。 要开启sdp优化,在启动参数加上--sdp-no-mem-attention 实际的显存使用量取决于图像大小(batch size)和上下文批处理大小(Context batch size)。可以尝试

    2024年02月05日
    浏览(56)
  • Stable Diffusion 使用outpainting扩展图像

    通常SD可以应用绘制的图像是固定分辨率的,但是如果想要超出这个分辨率的话那就要使用一些方法,并且如果还想保持这些图片的连贯性,例如背景就要使用到outpainting。 首先将需要扩展边缘的图像下载好,这个图像可以使横向也可以是纵向的,后续可以根据你的需要向其

    2024年02月12日
    浏览(41)
  • [Stable Diffusion进阶篇]使用Roop插件一键换脸

      AI领域大神s0md3v,开源了一个用单图就可以进行视频换脸的项目Roop。你只需要一张所需脸部的图像,没有数据集,无需训练,10秒钟一键换脸。本文介绍ROOP本地部署的安装说明 方法1:在SD--扩展--从网址安装,输入如下地址: https://github.com/s0md3v/sd-webui-roop 方法2:打开SD的

    2024年02月03日
    浏览(85)
  • 【stable-diffusion使用扩展+插件和模型资源(下)】

    插件模型魔法图片等资源:https://tianfeng.space/1240.html 1.lobe theme lobe theme是一款主题插件,直接可以在扩展安装 界面进行了重新布局,做了一些优化,有兴趣的可以下载试试,右上角设置按钮,第一行就是语言设置,还有颜色等等 2.SadTalker https://github.com/OpenTalker/SadTalker 基于最

    2024年02月11日
    浏览(73)
  • 【stable-diffusion使用扩展+插件和模型资源(上】

    个人网站: https://tianfeng.space 距离上次模型使用和插件推荐已经挺久了,所以必须再写一期来扩展使用方法了,毕竟得与时俱进,趁着这两天有空,赶紧写,写全点。上期模型插件使用方法和推荐 1.qrcode-monster qrcode-monster是一款controlnet模型,可以生成创意二维码,还可以通过

    2024年02月12日
    浏览(49)
  • Stable Diffusion - 扩展插件 (Extensions) 功能的配置与使用

    欢迎关注我的CSDN:https://spike.blog.csdn.net/ 本文地址:https://spike.blog.csdn.net/article/details/131576762 Prompt: (masterpiece, top quality, best quality, ((standing in centre)), ((1girl, black hair)), ((upper body, symmetrical composition)), ((wear yellow abstract patterns dress bold lines, geometric shapes)), (pure yellow abstract patterns

    2024年02月16日
    浏览(38)
  • 【stable-diffusion史诗级讲解+使用+插件和模型资源】

    前言 以后所有资源模型,都在这个网址公布:https://tianfeng.space/1240.html 要不然东一个西一个难找麻烦 安装:stable diffusion 小白最全详细使用教程 模型最终版:https://blog.csdn.net/weixin_62403633/article/details/131089616?spm=1001.2014.3001.5501 如果安装或者使用有问题,欢迎评论区留言,CSD

    2024年02月09日
    浏览(63)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包