Stable Diffusion webui 基础参数学习

这篇具有很好参考价值的文章主要介绍了Stable Diffusion webui 基础参数学习。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

哈喽,各位小伙伴们大家好,最近一直再研究人工智能类的生产力,不得不说随着时代科技的进步让人工智能也得到了突破性的发展。而小编前段时间玩画画也是玩的不可自拔,你能想想得到,一个完全不会画画的有一天也能创作出绘画作品。

熟知小编教学的小伙伴都知道,一般都是图文并茂形式进行的,一般只需要按照操作步骤进行都能学会。

一、本次学习目的

使刚接触Stable Diffusion webui的小伙伴能快速熟悉基础功能的理解及使用

二、简单介绍

Stable Diffusion是一种基于扩散过程的图像生成模型,可以生成高质量、高分辨率的图像。它通过模拟扩散过程,将噪声图像逐渐转化为目标图像。这种模型具有较强的稳定性和可控性,可以生成具有多样化效果和良好视觉效果的图像。

而且Stable Diffusion是个开源的程序,只要你有足够的配置,就可以自己部署开始玩,自己控制生成图像的特征和风格,生成不同风格的高质量图像。总之,它通过模拟扩散过程,生成高质量、高分辨率的图像,具有较强的稳定性和可控性。在多种领域,如艺术、设计、游戏等都有着广泛的应用前景。

三、演示参数

演示操作系统:Windows 10

操作系统版本:22H2

系统框架:64位

处理器(CPU):Intel(R)Core(TM)i7-9700K CPU 3.60GHz

内存(RAM):32GB

显卡(GPU):NVIDIA GeForce RTX 2060 SUPER (8 GB)

硬盘类型:西数机械4T红盘

Python版本号:3.10.11

Stable Diffusion webui 版本号:v1.3.1

模型名:xxmix9realistic_v30.safetensors

模型哈希值:2030eae609

演示参数方便大家以供参考

四、开始学习

1、演示数据

此数据来源:Image posted by Zyx_xx (civitai.com)

Stable Diffusion webui 基础参数学习

Stable Diffusion webui 基础参数学习

如果你能看得懂英文,想必使用起来会轻松有趣的多

下面是小编提取的图片数据,我们一起来看看吧

prompt(正向提示词): (RAW photo, best quality),(realistic, photo-realistic:1.3),extremely delicate and beautiful,Amazing,finely detail,masterpiece,ultra-detailed,highres,(best illustration),(best shadow),intricate,(male:1.4),armored,sword,long hair,black hair,holding weapon,blood,holding sword,arm guards,blood on weapon,tabi,floating hair,full body,fantasy,ink strokes,explosions,over exposure,((watercolor painting by John Berkey and Jeremy Mann )) brush strokes,negative space,red paint splatted,in the style of gritty urban realism,violent,wildlife art with a satirical twist,intense energy,(fogy:1.4),sharp focus,volumetric fog,8k UHD,DSLR,high quality,(film grain:1.4),Fujifilm XT3,black and red tone impression on background,motion blur,<lora:wuxia:0.6> <lora:Smoke:0.8>,<lora:add_detail:1>,

Negative prompt(反向提示词): (easynegative:1.0),(bad-hands-5:1.0),(realisticvision-negative-embedding:1.0), (ng_deepnegative_v1_75t:1.0),

ENSD(采样器参数,ETA噪声种子偏移): 31337,

Size(分辨率): 512x768,

Seed(随机数种子): 100548639,

Model(底模/模型): XXMix_4_v2893,

Steps(迭代步数): 28,

Sampler(采样方法): DPM++ 2M Karras,

CFG scale(提示词引导系数): 7,

Clip skip(跳过clip层数): 2,

Model hash(底模/模型哈希值): 2030eae609,

Hires steps(高分辨率修复迭代步数): 15,

Hires upscale(放大倍数): 2,

Hires upscaler(放大算法): 4x-UltraSharp,

Denoising strength(重绘幅度): 0.3

是不是看到这一大堆的英文数字已经开始头疼了呢,没关系,往下我们继续逐一解析

2、逐个解析

prompt(正向提示词):

这里面填写你想要显示的画面内容

Stable Diffusion webui 基础参数学习

Negative prompt(反向提示词):

这里填写你不希望出现的画面内同

Stable Diffusion webui 基础参数学习

ENSD(采样器参数,ETA噪声种子偏移):

有着固定初始值的作用,是确保在还原图片时与原始图片保持一致

Stable Diffusion webui 基础参数学习

Size(分辨率):

指生成的画面分辨率大小

Stable Diffusion webui 基础参数学习

Seed(随机数种子):

Seed是用于生成数据的初始源,因此在相同的Seed下,其他参数保持不变的情况下会生成相同的图片(可以将每个种子视为不同的全噪声图片,每一步的采样都是为全噪声图片添加细节)。但要注意采样器的eta值。当eta值为-1时,每次使用随机种子,而当eta值为其他固定值时,可以通过调整提示词来微调生成的图片。当复现他人的图像时,需要使用相同的Seed值。

简单理解:”-1“值生成随机新图,“固定值”生成指定图

Stable Diffusion webui 基础参数学习

Model(底模/模型):

这里一般选择已经训练好的大模型,也称为“底模”,一般网络上有下载。

H站(抱脸):Hugging Face

C站:Civitai

若是部分网站对网络有所要求,若是进不去需优化自己的网络哦

Stable Diffusion webui 基础参数学习

Steps(迭代步数):

首先,AI绘画的原理是通过随机生成一张噪声图片。然后,逐步向正负tag语义靠拢,每一步都是小幅度的移动,直到达到预期的迭代步数。一般来说,迭代步数被设置为20,这样可以保证每一步的移动更小和更精确。

Stable Diffusion webui 基础参数学习

Sampler(采样方法):

是一种生成图片的算法,一般选择带“+”好的比较好,这些是经过优化过的。不过,具体的使用最好还是根据模型作者提供的建议来使用。

Stable Diffusion webui 基础参数学习

CFG scale(提示词引导系数):

CFG Scale是一个控制提示词与生成图像相关性的数值。它可以在0到30之间进行调整。根据日常出图的经验,将CFG Scale设置在5到15之间是最常见且最保险的选择。过低的CFG Scale会导致图像饱和度降低,而过高的CFG Scale则会产生粗糙的线条或过度锐化的图像,甚至可能导致图像严重崩溃。

Stable Diffusion webui 基础参数学习

Clip skip(跳过clip层数):

CLIP过程是通过计算文本和图像之间的相关性来实现的。因此,如果跳过太多的步骤,文本对生成图像的匹配准确度会逐渐降低。

Stable Diffusion webui 基础参数学习

Model hash(底模/模型哈希值):

一般我们下载下来的模型是可以重命名的,但是一旦重命名后就不太好区别了,这个时候可以核对哈希值来确认

Stable Diffusion webui 基础参数学习

Hires steps(高分辨率修复迭代步数):

通过使用算法,AI可以首先在较低的分辨率下对图片进行部分渲染,然后将其提升到高分辨率,并在高分辨率下添加细节。可以将这个过程类比为采样迭代步数的理解,其中0表示保持原来的步数不变。

Stable Diffusion webui 基础参数学习

Hires upscale(放大倍数):

指在原有图像的宽度和长度上进行放大的倍数。需要注意的是,这种放大操作需要更高的显存来支持。

Stable Diffusion webui 基础参数学习

Hires upscaler(放大算法):

如果不知道选什么,一般无脑选ESRGAN_4x,各类网站都是这么说的,照做就行,哈哈

Stable Diffusion webui 基础参数学习

Denoising strength(重绘幅度):

放大后修改细节的程度可以通过一个从0到1的数值来表示,数值越大,AI的创意就越多,同时也会使生成的图像越偏离原始图像。

Stable Diffusion webui 基础参数学习

​现在再去学习别人的生成参数是不是轻松了许多呢

五、下载学习

SD WEBUI传送门:

http://ai95.microsoft-cloud.cn/d/9289114-56534526-28c22a?p=ai95

(统一访问密码:ai95)持续更新......文章来源地址https://www.toymoban.com/news/detail-495238.html

到了这里,关于Stable Diffusion webui 基础参数学习的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • 优秀图片生成参数-stable-diffusion-webui

    模型:chiloutmixni prompt: 前述:stable-diffusion好不好用,stable-diffusion V2好不好用? 请关注我的图像领域专栏,代码公开领域专栏。 (RAW photo, best quality), (realistic, photo-realistic:1.3), best quality ,masterpiece, an extremely delicate and beautiful, extremely detailed ,CG ,unity ,8k wallpaper, Amazing, finely detai

    2024年02月12日
    浏览(43)
  • Stable Diffusion WebUI文生图操作界面基本参数说明!

    朋友们,大家好,我是王赞,正在学习研究Stable Diffusion,致力于用最为朴素直白的语言为你介绍AI绘画的相关知识。 很多朋友在部署好Stable Diffusion后,本来想着可以愉快的玩耍了,但是点开一看,密密麻麻的选项立马又劝退了一大批人。 别着急,今天这篇教程将会为你解决

    2024年02月13日
    浏览(32)
  • AI绘画stable diffusion webui汉化教程,参数解析以及界面介绍

    上期图文教程,我们分享了stable diffusion webui项目的安装操作,由于stable diffusion webui项目是英文项目,且里面涉及到很多设置与参数,这样针对stable diffusion webui项目的汉化操作就显得尤其重要了,本期,我们介绍一下stable diffusion webui的汉化操作与基础参数的含义。 stable dif

    2024年02月04日
    浏览(47)
  • Stable Diffusion WebUI中COMMANDLINE_ARGS参数配置说明

    在webui-user.bat文件的set COMMANDLINE_ARGS=后面配置 在webui-user.sh文件的export COMMANDLINE_ARGS=\\\"\\\"引号中配置 配置(Configuration) -h, –help 无 错误 显示此帮助消息并退出 –config 配置 配置/稳定扩散/v1-inference.yaml 构建模型的配置路径 –ckpt CKPT 模型.ckpt 稳定扩散模型检查点的路径;如果指定

    2024年02月09日
    浏览(39)
  • 【AIGC】如何在使用stable-diffusion-webui生成图片时看到完整请求参数

    通过代码调用Stable Diffusion的txt2img、img2img接口时,很多时候都不知道应该怎么传参,比如如何指定模型、如何开启并使用Controlnet、如何开启面部修复等等,在sd-webui上F12看到的请求也不是正式调用SD的请求,所以当引入新插件或需要使用新功能时,怎么传参成了一个大问题,

    2024年02月08日
    浏览(39)
  • Stable Diffusion WebUI 从零基础到入门

    本文主要介绍Stable Diffusion WebUI的实际操作方法,涵盖prompt推导、lora模型、vae模型和controlNet应用等内容,并给出了可操作的文生图、图生图实战示例。适合对Stable Diffusion感兴趣,但又对Stable Diffusion WebUI使用感到困惑的同学,希望通过本文能够降低大家对Stable Diffusion WebUI的学

    2024年02月12日
    浏览(25)
  • 通过【Stable-Diffusion WEBUI】复刻属于你的女神:再谈模型与参数

    本篇主要从复刻一幅作品(无论是网上或者自己已生产的图)出发,再讲讲模型和参数。我不明白的是AI可以画浩瀚宇宙、星辰大海,山川异域,城市建筑,各种艺术风格,可以说包罗万象……但实际互联网上只能看到各种小姐姐-_- 更多不断丰富的内容参考:🔗 《继续Stab

    2024年02月12日
    浏览(27)
  • Stable-Diffusion-Webui部署SDXL0.9报错参数shape不匹配解决

    已经在model/stable-diffusion文件夹下放进去了sdxl0.9的safetensor文件,但是在切换model的时候,会报错model的shape不一致。 update一些web-ui项目就可以,因为当前项目太老了,没有使用最新的版本。

    2024年02月15日
    浏览(33)
  • stable diffusion实践操作-webUI教程-不是基础-是特例妙用

    stable diffusion实践操作 提示:写完文章后,目录可以自动生成,如何生成可参考右边的帮助文档 本章主要介绍SD webUI的一些使用教程。 提示:以下是本篇文章正文内容 SD webUI 是SD官方提供的一个UI界面,可以用来操作SD,界面如下: 插件是webUI的一部分,插件安装好,还要需要

    2024年02月10日
    浏览(29)
  • 浅谈【Stable-Diffusion WEBUI】(AI绘图)的基础和使用

    如果你对这方面是零基础,可以阅读本篇的内容,至少可以上手。 更多不断丰富的内容参考:🔗 《继续Stable-Diffusion WEBUI方方面面研究(内容索引)》 最近比较热门的人工智能,可以单纯通过输入一段文字(提示词),或者通过一张图片生成新的绘图作品。 根据基础模型和人

    2024年02月05日
    浏览(51)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包