stable diffusion使用简明教程

这篇具有很好参考价值的文章主要介绍了stable diffusion使用简明教程。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

controlNet模块使用

stable diffusion使用简明教程

  1. Enable选项启用,使用Openpose Edito中姿势生成需要将Openpose Editor指定为none状态。
    
  2. 上面骨骼图是通过Openpose Editor调整姿势然后send to txt2img到这里的,使用Openpose Edito中姿势生成需要将Openpose Editor指定为none状态。

Preprocessor选项:

Canny edge — 黑色背景上带有白色边缘的单色图像。 将图片变成线稿。

Depth/Shallow areas — 灰度图像,黑色代表深区域,白色代表浅区域。

Normal map — 法线贴图图像。

Semantic segmentation map——ADE20K 的分割图像。

HED edge — 黑色背景上带有白色软边缘的单色图像。

Scribbles — 黑色背景上带有白色轮廓的手绘单色涂鸦图像。

OpenPose (姿势关键点)— OpenPose 骨骼图像。

M-LSD — 仅由黑色背景上的白色直线组成的单色图像
Preprocessor部分选项使用教程

官方教程链接:Control human pose in Stable Diffusion Stable Diffusion Art (stable-diffusion-art.com)
1. canny图像生成线稿
先加载对应的模块吗,然后点击生成。
stable diffusion使用简明教程

2. hed轮廓生成图像,跟上面操作一样只需要更换对应的Preprocessor选项和model为hed,也需要根据添加描述来生成

stable diffusion使用简明教程

3.scribble涂鸦生成
stable diffusion使用简明教程

以上推图片生成的风格内容都是需要根据底层模型来获取内容。跟换底层模型在
stable diffusion使用简明教程

图生图img2img

stable diffusion使用简明教程

对于生成出来的图片局部不满意可以进行局部重绘,涂黑需要修改的地方,不满意就send to inpaint在修改好一点的基础上继续修改,一直到满意为止
stable diffusion使用简明教程

协同创作,根据你的手绘和提示词然后图生图生成不同内容
stable diffusion使用简明教程

使用技巧

tag提示词:
线稿:((line art, white and black))
漫画风:((monochrome, screentone))

生成原则

  • 一般原则:
    一般来说越靠前的词汇权重就会越高,所以多数情况下的提示词格式是:质量词,媒介词,主体,主体描述,背景,背景描述,艺术风格和作者
  • 权重调节: 最直接的权重调节就是调整词语顺序,越靠前权重越大,越靠后权重越低,可以通过下面的语法来对关键词设置权重,一般权重设置在0.5~2之间,可以通过选中词汇,按ctrl+↑↓来快速调节权重,每次步进为0.1,(best quality:1.3)
  • 词条组合:
    几个词用括号合起来并不会让ai把他们视为一体,即使打上权重也不行,比如以下两者实际上是完全等价的
    ○ (car, rockt, gun:1.3)
    ○ (car:1.3), (rocket:1.3), (gun:1.3)
    词条组合的方式和自然语言差不多,要使用介词,比如and,with,of 等等,比如(car with guns and rockets)

采样方法
采样方法有很多,但是目前常用的基本只有几种:

  • Euler a:速度最快的采样方式,对采样步数要求很低,同时随着采样步数增加并不会增加细节,会在采样步数增加到一定步数时构图突变,所以不要在高步数情景下使用
  • DPM++2S a Karras 和 DPM++ SDE Karras:这两个差不太多,似乎SDE的更好,总之主要特点是相对于Euler a来说,同等分辨率下细节会更多,比如可以在小图下塞进全身,代价是采样速度更慢
  • DDIM: 很少会用到,但是如果想尝试超高步数可以使用,随着步数增加可以叠加细节

采样步数
一般来说大部分时候采样部署只需要保持在20~30之间即可,更低的采样部署可能会导致图片没有计算完全,更高的采样步数的细节收益也并不高,只有非常微弱的证据表明高步数可以小概率修复肢体错误,所以只有想要出一张穷尽细节可能的图的时候才会使用更高的步数

输出大小
大致的输出大小和内容关系参考:
• 约30w像素,如512512,大头照和半身为主
• 约60w像素,如768
768,单人全身为主,站立或躺坐都有
• 越100w像素,如1024*1024,单人和两三人全身,站立为主
• 更高像素,群像,或者直接画面崩坏

提示词相关性(CFG)
CFG很难去用语言去描述具体的作用,很笼统的来说,就是给你所有的正面和反面提示词都加上一个系数,所以一般CFG越低,画面越素,细节相对较少,CFG越高,画面越腻,细节相对较多
• 二次元风格CFG可以调的高一些以获得更丰富的色彩和质感表达,一般在712,也可以尝试1220
• 写实风格CFG大都很低,一般在4~7,写实模型对CFG很敏感,稍微调多一点可能就会古神降临,可以以0.5为步进来细微调节

随机种子
• 点击筛子按钮可以将随机种子设为-1,也就是随机
• 点击回收按钮可以将随机种子设为右边图片栏里正在看的那张图片的随机种子

面部修复
面部修复在早期模型生成的的写实图片分辨率不高的时候有一定价值,可以在低分辨率下纠正错误的写实人脸,但是现在的模型的脸部精度已经远超早期模型,而面部修复功能会改变脸部样貌,所以只要无视这个功能就好

VAE设置
VAE的作用是修正最终输出的图片色彩,如果不加载VAE可能会出现图片特别灰的情况,设置位置:
• 设置-StabelDiffusion-模型的VAE
设置之后记得点击上方的保存设置,VAE是通用的,可以和任何模型组合

解决方案

修复手部姿势


tag提示词网站
https://aitag.top/
https://tags.novelai.dev/
https://www.wujieai.com/tag-generator

教学文档
https://stable-diffusion-art.com/automatic1111

模型库

模型下载:
https://civitai.com/
https://huggingface.co/lora-library文章来源地址https://www.toymoban.com/news/detail-430521.html

到了这里,关于stable diffusion使用简明教程的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • 基于 FFmpeg 的跨平台视频播放器简明教程(六):使用 SDL 播放音频和视频

    基于 FFmpeg 的跨平台视频播放器简明教程(一):FFMPEG + Conan 环境集成 基于 FFmpeg 的跨平台视频播放器简明教程(二):基础知识和解封装(demux) 基于 FFmpeg 的跨平台视频播放器简明教程(三):视频解码 基于 FFmpeg 的跨平台视频播放器简明教程(四):像素格式与格式转换

    2024年02月13日
    浏览(56)
  • Android MediaCodec 简明教程(五):使用 MediaCodec 编码 ByteBuffer 数据,并保存为 MP4 文件

    Android MediaCodec 简明教程(一):使用 MediaCodecList 查询 Codec 信息,并创建 MediaCodec 编解码器 Android MediaCodec 简明教程(二):使用 MediaCodecInfo.CodecCapabilities 查询 Codec 支持的宽高,颜色空间等能力 Android MediaCodec 简明教程(三):详解如何在同步与异步模式下,使用MediaCodec将视

    2024年04月13日
    浏览(43)
  • AI绘图:Controlnet在ComfyUI中的使用教程:提升Stable Diffusion可控性

    Controlnet是Stable Diffusion中一个至关重要的功能,它极大地增强了图像生成的可控性。通过引入额外的条件,Controlnet使我们能够更精确地控制生成的图像内容。本教程将详细介绍如何在ComfyUI中使用Controlnet,从而让你的创作过程更加灵活和精确。 在开始使用Controlnet之前,我们需

    2024年04月17日
    浏览(36)
  • Stable Diffusion+ControlNet+Lora 指导AI+艺术设计的WebUI全流程使用教程

    设计师们往往对于新出的绘画工具上手比较艰难,本文针对目前比较火热的Stable Diffusion+ControlNet指导AI艺术设计的工具使用进行全面讲解。很多人会有预感,未来要么设计师被图形学程序员取代,要么会使用AI工具的设计师取代传统设计师,2023年开始,AI辅助设计甚至主导设计

    2024年02月07日
    浏览(52)
  • HuggingFace简明教程

    视频链接:HuggingFace简明教程,BERT中文模型实战示例.NLP预训练模型,Transformers类库,datasets类库快速入门._哔哩哔哩_bilibili 什么是huggingface?huggingface是一个开源社区,它提供了先进的NLP模型,数据集,以及其他便利的工具。 数据集:Hugging Face – The AI community building the future.  这

    2024年01月25日
    浏览(44)
  • Docker入门简明教程

    Docker 是基于 Go 语言实现的云开源项目,是基于 Linux 的多项开源技术提供高效、敏捷和轻量级的容器方案。创建于 2013 年初,自从开源后就受到了广泛的关注,从长远的眼光来看,Docker 是未来虚拟化的一个发展的趋势。带来了更轻量快捷的的体验,一台主机可以同时运行数千

    2024年01月23日
    浏览(49)
  • mpack简明教程

    本文先简单介绍MessagePack的基本概念。 然后,介绍一个MessagePack C API - MPack的通常使用。 接着尝试对MPack截断数据的读取。 注:本文完整代码见仓库。 如果你使用过C/C++的json库,那么上手MessagePack是比较容易的。关于C/C++ Json库的使用可见:C++ JSON库的一般使用方法-CSDN博客。

    2024年02月20日
    浏览(46)
  • SAP报表简明教程

    SAP 报表简明教程   一、 报表需求,根据物料编码和物料类型 查询报表。用户输入界面要求如下:     二、 开始写代码。先进入 TCODE:SE38 ,新建一个程序。      点击创建按钮,如下图:      输入标题,写明 此程序的功能 作者,创建时间,点保存,     输入自己事先建

    2024年02月04日
    浏览(45)
  • 【Verilator】 1 简明教程

    我是 雪天鱼 ,一名FPGA爱好者,研究方向是FPGA架构探索和数字IC设计。 欢迎来关注我的B站账号,我将定期更新IC设计教程。 B站账号: 雪天鱼 ,https://space.bilibili.com/397002941?spm_id_from=333.1007.0.0 先从GitHub下载实验代码 以一个用SystemVerilog编写的简单ALU来作为DUT(device under test)

    2024年02月02日
    浏览(64)
  • SSH 隧道简明教程

    本章主要介绍了什么是 SSH 隧道以及如何使用 SSH 隧道,包括 SSH 隧道加密数据传输以及绕过防火墙。 SSH 隧道是 SSH 中的一种机制,它能够将其他 TCP 端口的网络数据通过 SSH 连接来转发,并且自动提供了相应的加密及解密服务。因为 SSH 为其他 TCP 链接提供了一个安全的通道来

    2024年02月06日
    浏览(50)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包