浅谈【Stable-Diffusion WEBUI】(AI绘图)的基础和使用

这篇具有很好参考价值的文章主要介绍了浅谈【Stable-Diffusion WEBUI】(AI绘图)的基础和使用。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

(零)AI绘图

如果你对这方面是零基础,可以阅读本篇的内容,至少可以上手。
更多不断丰富的内容参考:🔗《继续Stable-Diffusion WEBUI方方面面研究(内容索引)》

最近比较热门的人工智能,可以单纯通过输入一段文字(提示词),或者通过一张图片生成新的绘图作品。
根据基础模型和人物模型的不同,可以生成动漫,Q版,3D,仿真各种类型的任意图片。

例,比如仿真风格:
浅谈【Stable-Diffusion WEBUI】(AI绘图)的基础和使用

例,比如3D国风:
浅谈【Stable-Diffusion WEBUI】(AI绘图)的基础和使用

例,额这是什么风格,我没看过那么多动漫,所以还请赐教。
浅谈【Stable-Diffusion WEBUI】(AI绘图)的基础和使用

例子太多了,可以自行在网上搜出一大把。
上面例子还是习惯的替换成我老婆的脸,至少不重复。

(一)简单介绍

(1.1)Stable-Diffusion

稳定扩散(Stable Diffusion)原名是潜扩散模型(Latent Diffusion Model, LDM)。
引用:”扩散模型的兴起可以被视为人工智能生成艺术领域最近取得突破的主要因素……”
感兴趣可以参考这篇: 🔗《Diffusion 和Stable Diffusion的数学和工作原理详细解释》

当然,我们通常谈到这个名字时,指的是具体的项目:🔗https://github.com/CompVis/stable-diffusion

这类Python对不搞计算机和人工智能的同学来说太繁琐了,
其实对于研究人员和科学家也繁琐,要不怎么有Anaconda和Jupyter Notebook这类工具呢……

这个是开源项目,有兴趣的可以自己研究。

(1.2)Stable-Diffusion WEB UI

所以不通过命令行,不去管各种环境,对普通大众才是最简单的使用方式。
于是我们一般用的都是 Stable-Diffusion WEB UI :浏览器的Stable-Diffusion用户界面(基于Gradio库)。

项目位置:🔗https://github.com/AUTOMATIC1111/stable-diffusion-webui

作者的官方截图:
浅谈【Stable-Diffusion WEBUI】(AI绘图)的基础和使用

(1.3)SD-WebUI启动器和整合包

估计是考虑到WEBUI也需要简单的配置,以及需要模型,以及各种懒人的懒是无下限的。
所以居然还有大神(秋葉aaaki)制作了启动器,这下真的可以”一键使用“了。

SD-WebUI启动器 的官网……呃,没有官网。
作者自己写的唯一发布途径:🔗https://www.bilibili.com/video/BV1ne4y1V7QU
然后是V4更新:https://www.bilibili.com/video/BV1iM4y1y7oA
从里面你可以找到启动器本身,以及作者自己推荐的:NovelAI模型(7GB)整合包的下载连接。

💡 简单说通过整合包,你可以不懂任何原理,就开始AI作图了。

启动器还可以管理SD-WebUI的版本,各种模型以及插件。

截图(2.0新版主界面):
浅谈【Stable-Diffusion WEBUI】(AI绘图)的基础和使用

(二)使用

(2.1)启动 & 控制台 & WEBUI

假设你是通过上面的启动器的,选择了适合自己的显卡显存,至少有一个Stable-Diffusion模型(比如整合包那个)。
然后点击”一键启动“了,则会出现一个控制台(CMD窗口)。

Python 3.10.8 (tags/v3.10.8:aaaf517, Oct 11 2022, 16:50:30) [MSC v.1933 64 bit (AMD64)]
Commit hash: 5ab7f213bec2f816f9c5644becb32eb72c8ffb89
Installing requirements
Installing requirements for Batch Face Swap
Installing requirements 1 for Infinite-Zoom
Launching Web UI with arguments: --medvram --theme dark --xformers --opt-channelslast --api --autolaunch
=====================================
AUTOMATIC1111/stable-diffusion-webui
portable packed by bilibili@秋葉aaaki 
version: v2
本整合包完全免费
=====================================
dirname:  D:\xxxxxx\localizations
localizations:  {'简体中文': 'D:\\xxxxxx\\localizations\\简体中文.json'}
ControlNet v1.1.134
ControlNet v1.1.134
Loading weights [7f96a1a9ca] from D:\xxxxxx\models\Stable-diffusion\Anything_v5.safetensors
Creating model from config: D:\xxxxxx\configs\v1-inference.yaml
LatentDiffusion: Running in eps-prediction mode
DiffusionWrapper has 859.52 M params.
Applying xformers cross attention optimization.
Textual inversion embeddings loaded(4): bad-hands-5, EasyNegative, ulzzang-6500-v1.1, yaguru magiku
Model loaded in 2.4s (load weights from disk: 0.2s, create model: 0.5s, apply weights to model: 0.5s, apply channels_last: 0.5s, apply half(): 0.7s).
Running on local URL:  http://127.0.0.1:7860

To create a public link, set `share=True` in `launch()`.
Startup time: 18.9s (import torch: 2.3s, import gradio: 1.1s, import ldm: 0.8s, other imports: 1.8s, setup codeformer: 0.1s, load scripts: 4.1s, load SD checkpoint: 2.7s, create ui: 5.4s, gradio launch: 0.3s, scripts app_started_callback: 0.2s).

控制台中如果没有出错的信息,默认会自动打开浏览器,出现Stable-Diffusion的页面。
由于我们用了整合包里面的扩展插件,所以这里页面是中文的了。
浅谈【Stable-Diffusion WEBUI】(AI绘图)的基础和使用

文生图这页里面,简单输入提示词,就可以成功生成图片了。
PS:图生图也是一样的,只是需要选一张已有的图片作为参考。
OK,大功告成,洗洗睡觉了……
浅谈【Stable-Diffusion WEBUI】(AI绘图)的基础和使用

(2.2)模型

(2.2.1)基础模型(stable-diffusion模型)

啊嘞嘞!等一下,你会说左上角能选的,根本没有我用的这个模型,OK?
浅谈【Stable-Diffusion WEBUI】(AI绘图)的基础和使用
是的,如果你下载的是整合包,则只有NovelAI模型。
因为是个动漫模型不能生成上面例子里面的仿真的猫猫狗狗。

基础模型(stable-diffusion模型)决定了生成图片的最基本风格,
所以你可以多找几个基础模型来生成动漫/真实的不同风格的图片。
需要注意的是,在你决定商用之前需要仔细看这些模型的协议和模型内容,是否版权完善。

关于模型和下载,你可以参考这里:🔗https://openai.wiki/painting/sd
或者在抱脸一类模型网站上下载优秀的模型,比如国风3:🔗https://huggingface.co/xiaolxl/GuoFeng3

由于最丰富的模型网站civitai国内无法访问,只好通过抱脸获取模型。
比如你可以了解(但不局限于)这些模型:

  • 原始基础:SD v1.5
  • 常见动漫:OpenJourney,Anything,NovalAI(就那整合包啊),RedShift ……
  • 仿真风格:Dreamlike-Photoreal,BasilMix(融合亚洲脸),ChilloutMix(清凉组合/亚洲),URPM(注意NSFW)
(2.2.1.1)模型文件位置

请注意这一步提到的是基础模型(stable-diffusion模型),通常都是几个GB大小。
通常名称是 xxx.ckpt 或者 xxx.safetensors(如果有.safetensors可优先选它)。

将下载的模型放入{你的项目位置}\models\Stable-diffusion 目录当中,
刷新一下或者下次打开就可以看到了。

(2.2.1.2)模型选择 & 模型预览图

One more thing……
可以点击这个红色,呃粉色?的(Show extra networks)按钮。
浅谈【Stable-Diffusion WEBUI】(AI绘图)的基础和使用

然后选择 模型(ckpt) 这一页,通过点击预览图也可以切换基础模型。
作用和在左上角下拉列表选择基础模型是一样的。

最开始也许没有预览图,你可以选个模型生成一张图。
然后鼠标指向这个模型预览图名字那里,点击出现的”用当前生成图片替换预览“,这样就有预览图了。
浅谈【Stable-Diffusion WEBUI】(AI绘图)的基础和使用

(2.2.1.3)模型的VAE

目前通常模型都集成了VAE,完全不用我们管。
但如果模型没有对应的VAE则出图质量不高或比较奇怪,这部分在另外的文章有讲到。

(2.2.2)小模型(LoRA模型)

LoRA: Low-Rank Adaptation (of Large Language Models)是一种使用少量图像来训练模型的方法。
我们简称它为小模型,因为它是对基础模型(大模型)的微调,不用改变整个大模型就能改变人物和风格。
可以参考:🔗https://zhuanlan.zhihu.com/p/612992813 或其他资料,这里咱先不讨论原理。
最近的SD-WEB UI已经原生支持了LoRA模型,不再需要插件了。

  • LoRA模型大小从几MB到100多MB。
  • 可以加载多个不同的LoRA模型配合不同的权重叠加使用。
  • 训练比较快(几到几十分钟),使用少量图像(10多张),效果比较好。
  • 目前SD-WEB UI不能训练LoRA模型。
  • 适合训练人物

训练请参考下面的项目,训练本身内容也很多,这里不详细写。
脚本训练:🔗https://github.com/Akegarasu/lora-scripts
GUI训练:🔗https://github.com/bmaltais/kohya_ss

我们可以简单理解为,这是个性化的人物模型。
💡没有或不使用LoRA模型也是可以生成图片的,所以这一章节可以跳过。

下载LoRA模型同样可以参考这里:🔗https://openai.wiki/painting/sd
或者国风3也提供了LoRA模型:🔗https://huggingface.co/xiaolxl/GuoFeng3

注意版权,比如各地girllikeness模型……

  • 参考:https://openai.wiki/lora-model-part-1.html,以及part2,3。
  • 参考:https://www.bilibili.com/read/cv20039815。
  • 参考:https://aigallery.design/chinese-diffusion-models.html,呃,明星?
(2.2.2.1)模型文件位置

请注意这一步提到的是loRA模型,一般几十到几百MB大小。
文字里面通常包括lora字样,以便区别基础模型。
通常名称是xxx.safetensors

将LoRA模型放入{你的项目位置}\models\Lora 目录当中,
同理刷新一下或者下次打开就可以看到了。

(2.2.2.2)模型选择 & 模型预览图

和基础模型一样击这个粉色的(Show extra networks)按钮。
然后选择 LoRA 这一页。

生成预览图的方式和基础模型一样,这里就不重复说了。

选用模型的方式是点击模型,这时提示词(prompt)中就会加入这个LoRA模型的提示词,
比如吉卜力风格的LoRA就是加入 <lora:Studio Ghibli:1>,再点击一下同一个模型,提示词中就会取消它。

💡可以用多个LoRA模型的提示词噢!
浅谈【Stable-Diffusion WEBUI】(AI绘图)的基础和使用

(2.2.3)小模型(嵌入式模型/Embedding/Textual Inversion)

【抄的】是一种使用文本提示来训练模型的方法。它根据模型引用给定的图像并选择最匹配的图像。
现在有了LoRA模型,大家应该不会再用它来训练了吧。

  • Embedding模型大小只有几十KB。
  • 可不能设置权重,似乎关键词位置也会影响效果。
  • 训练很慢(整天),效果……可能我不太会吧,和LoRA用同样的资源图片训练20000多迭代后,人物依然怪异得很。
  • 在SD-WEB UI里可以直接训练Embedding模型,
  • 适合训练人物
  • 将Embedding模型放入{你的项目位置}\embeddings 目录当中,

(2.2.4)小模型(超网络模型/Hypernetwork)

(抄的)是一种使用神经网络来生成模型参数的方法。它可以用来从模型内部找到更多相似的东西,使得生成为近似内容图像。

  • Hypernetwork模型大小大约几十MB。
  • 我没试过训练它,抱歉……
  • 在SD-WEB UI里可以直接训练Hypernetwork模型,
  • 适合训练风格画风
  • 将Hypernetwork模型放入{你的项目位置}\models\Hypernetwork 目录当中,

(2.3)文生图(绘图方式)

就是通过文字描述来生成对应的图片。

(2.3.1)提示词

提示词是核心,选择合适的提示词才能生成更好的图片。
提示词需要用英文的,当然也有中文提示词的相关项目,有兴趣可以自己研究。
输入提示词时候,有时可以看到联想的内容,这也是插件的功劳。

提示词 prompt(上面的框框)描述希望图片生成为什么样子的词语(highres, beautiful, masterpiece)。
反向提示词 negative prompt(下面的框框)不希望图片出现的内容(lowres, ugly, blurry…)。
浅谈【Stable-Diffusion WEBUI】(AI绘图)的基础和使用

  • (强调) / [弱化]:权重:提示词中出现:(photorealistic:1.4)是强调photorealistic,并且权重是1.4(光标放单词上后,就可以Ctrl+上/下箭头快速调节呢)。圆括号越多越强调——而方括号则是弱化,越多方括号越弱。
  • LoRA模型提示词:提示词中出现:<lora:xxxxx:1.0> 就是LoRA模型的提示词,后面1.0也是权重,调节同上。

💡 我们也可以通过 图片信息 这一页,查看一张AI生成的图片(原图)是用哪些提示词,哪些参数生成的。
以此来了解别人生成的很不错的图片的信息,自己用来参考。

浅谈【Stable-Diffusion WEBUI】(AI绘图)的基础和使用

(2.3.2)模板风格

模板风格就是一组有名字的【提示词+反向提示词】。

比较完美的一组正反提示词,可以保存成一个“模板风格”,今后重复调用。
用模板风格可以存储别人的提示词配置用来生成同样的效果。

可以参考:Danbooru 标签超市 ,或提示词学徒库 。
或小日子过得不错的另类:🇯🇵寻找图像提示🔞NSFW。

我们可以保存多组提示词切换着用。

选择模板风格后,点一下这个小本子一样的图标,就可以把选中的模板风格的提示词内容,加入到左边的输入框中。
浅谈【Stable-Diffusion WEBUI】(AI绘图)的基础和使用

(2.3.3)修复(Restore or Fix)

  • 面部修复(Restore faces):通常都勾选,由于神经网络无法完全捕捉人脸的微妙细节和变化,导致产生了不自然或扭曲的结果。实测似乎还带了美颜的效果(汗),总之人像的话选中它就对了。
    面部修复对比(左关,右开)例子:
    浅谈【Stable-Diffusion WEBUI】(AI绘图)的基础和使用
  • 高清修复(Hires. fix):由于Stable-Diffusion模型的原因(512x512)不适合直接生成高分辨率照片。
    所以可以设置低分辨率并选中这个选项。有人说慎选,其实可以自己尝试【生成低分辨率+高清修复】vs【直接高分辨率】哪个更好。
    工作原理可看WEBUI仓库的WIKI。
    高清修复对比(关,开,直接生成高分辨率)例子: 💡直接生成高分辨率就算随机种子一致结果也不同了……
    浅谈【Stable-Diffusion WEBUI】(AI绘图)的基础和使用

(2.3.4)采样方法

  • 采样方法(Sampler) :通常:DPM++ SDE karras ,参考Stable diffusion webui如何工作以及采样方法的对比

  • 采样迭代步数(Steps) :迭代多少次,通常至少20起步。

(2.3.5)其它参数

  • 分辨率(Width and Height):长x宽。概念大家都知道。 在AI作图中并不是分辨率选得高图就仅仅变大(处理时间变长)而已。模型会适合一定范围内的分辨率(通常都不大),所以我们一般只选择384x512 -> 600x800 这种不太高的分辨率。如果要生成大图则需要配合前面的【高清修复】,或则使用【附加功能】的图片放大,或则两者配合。

  • 生成批次/每批数量(Batch count / Batch size) :重复生成多少次 x 每次生成几张 = 本次最后生成的图片数量,都设为1就是单张。注意【每批数量】是很考验显存的,如果显卡不是很强悍(显存不够大)那还是别设置高了(会OOM报错的)。

  • 提示词相关性(CFG Scale):图像与你的提示的匹配程度。参考Stable Diffusion 新手入门手册,通常5-8,设太高会偏执的要画提示词内容,结果可能很怪,可同时增加【采样迭代步数】来缓和。

  • 随机种子(seed):这怎么解释,后面的骰子图标是填入-1(随机),回收站图标是填入上次用过的值。

💡做到这里就可以生成图片了。

(2.4)图片文件输出

输出的图片会保存到{你的项目位置}\outputs的子目录中。

比如文生图就是txt2img,图生图就是img2img。
单张图片在xxx-images下面。
批量图片会合成一张大的网格图放在xxx-grids下面。

浅谈【Stable-Diffusion WEBUI】(AI绘图)的基础和使用


(三)进阶(继续阅读)

这篇主要记录了我首次接触AI绘图,把软件用起来必要的基本步骤。
如果还有兴趣请看:🔗《继续Stable-Diffusion WEBUI方方面面研究》

内容是用索引的形式,记录了Stable-Diffusion WEBUI和插件的许多高级操作。
里面引用了很多高人的文章,他们的内容十分详细。
最终目的是,更完善的绘图成果。比如:更好的提示词人物姿态手部动作合成视频插件生成高清墙纸训练自己的模型 等等……

同时我发现这样零散的记录似乎不合理,所以准备把上面提到的这篇也改造成我自己写的内容的索引。
目标是从索引可以找到全部文章内容,而不是文章之间疯狂互相引用:)


😜Happy Creating……文章来源地址https://www.toymoban.com/news/detail-448348.html

到了这里,关于浅谈【Stable-Diffusion WEBUI】(AI绘图)的基础和使用的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • 【AI绘图】Stable Diffusion WebUI环境搭建

    Stable Diffusion WebUI开源地址:https://github.com/AUTOMATIC1111/stable-diffusion-webui  首先根据要求做以下准备工作: 1. 安装 Python 3.10.6, 安装时记得勾选\\\"Add Python to PATH\\\"把Python添加到环境变量. 2. 安装Git环境,Git - Downloading Package 3. 用git命令把下载Stable Diffusion WebUI项目:    4. 项目下载到本

    2024年02月04日
    浏览(49)
  • 关于【Stable-Diffusion WEBUI】基础模型对应VAE的问题

    本篇主要提及模型的VAE,通常情况下我们不用考虑它,但是有些特别是早期模型并没有整合VAE…… 更多不断丰富的内容参考:🔗 《继续Stable-Diffusion WEBUI方方面面研究(内容索引)》 VAE (Variational Auto-Encoder 变分自动编码器) 虽然简称是编码器,实际上是编码解码器(我们用到

    2024年02月09日
    浏览(57)
  • AI绘图入门 安装 stable-diffusion-webui

    先看样张: https://www.python.org/downloads/ Git - Downloads (git-scm.com) 1. 新建文件夹 (不能有中文,建议放在空闲比较多的硬盘上),然后再文件夹打开命令行 2. 克隆 Nvidia显卡 AMD显卡 AMD GPU 说明 CPU 选择上面任意一个都可以 下载慢可以请求头加https://ghproxy.com/ 如: https://ghproxy.com/

    2024年02月06日
    浏览(56)
  • AI绘图开源工具Stable Diffusion WebUI前端API对接

    本文主要介绍 AI 绘图开源工具 Stable Diffusion WebUI 的 API 开启和基本调用方法,通过本文的阅读,你将了解到 stable-diffusion-webui 的基本介绍、安装及 API 环境配置;文生图、图生图、局部重绘、后期处理等 API 接口调用;图像处理开发中常用到一些方法如 Base64 、 PNG 、 Canvas 及

    2024年02月10日
    浏览(52)
  • 1024程序员节?我们整点AI绘图玩玩吧,一文教你配置stable-diffusion

    需提前准备:一台高性能的电脑(尤其是显存)、python、Git、梯子。 其实Github上有很多关于Stable diffusion的库,综合对比之后,我选取的是比较全面的AUTOMATIC1111这个,源码链接:Stable-diffusion(Github) 找到安装那块的教程,此教程以windows为例。 ps:如果你电脑上已经有了pyt

    2024年01月16日
    浏览(74)
  • 搭建 AI绘图 Stable Diffusion- WebUI 制作属于自己版权的图片

    前言 Stable Diffusion 是一种深度学习文本到图像生成模型,它主要用于根据文本的描述产生详细图像,亦或者根据现有的图片生成相似的图片。在本地代建Stable Diffusion-webUI需要准备Python环境(3.10.6版本)、可以上外网的梯子,Git拉取代码工具,电脑配置最低建议6G显存,1660TI显卡

    2024年02月16日
    浏览(60)
  • (十六) AIGC、AI绘画、SD-WebUI、本地部署、Stable-Diffusion本地模型、最新Controlnet扩展

    1、简介 AI绘画的工具网站很多,大部分收费/限制数量,而且速度很慢,如果部署本地的模型,不仅免费无限制、还可以提高出图效率,随意生成自己想象中的图,部署中发现有各种各样的环境配置问题,无法正确运行。 本博整理了SD-WebUI的整合包(Windows环境下),包括启动器

    2024年02月13日
    浏览(79)
  • 【AI 绘图】Stable Diffusion WebUI 本地安装教程(Windows,兼容 NVIDIA、AMD 显卡)

    操作系统 win10 及以上 若有独显,则显存至少 4 GB(专用内存 + 共享内存) 若只有核显/集显,则内存至少 16 GB 友情提示: AMD 显卡也能用 ,但训练目前不起作用,但多种功能/扩展可以起作用,例如 LoRA 和 controlnet 如果显卡性能不行,即使安装成功也无法正常使用 Stable Diffu

    2024年02月16日
    浏览(87)
  • 【AI绘图本地部署,无显卡部署stable-diffusion-webui吗,使用CPU运算】

    环境准备 aconda:https://www.anaconda.com/ git clone https://github.com/AUTOMATIC1111/stable-diffusion-webui 进入目录 cd stable-diffusion-webui 创建虚拟环境 python -m venv ./virtualenv 运行虚拟环境 .virtualenvScriptsActivate.ps1 安装Cpu运行的pytorch版本 pip3 install torch torchvision torchaudio 修改根目录下launch.py代码

    2024年02月16日
    浏览(45)
  • 【计算机视觉】手把手教你配置stable-diffusion-webui进行AI绘图(保姆级教程)

    本地部署指的是将软件应用程序或服务部署在本地计算机或本地服务器上,而不是使用云服务或远程服务器。以下是一些常见的原因,解释为什么选择本地部署: 数据隐私和安全性:对于某些敏感数据或关键业务功能,保持数据在本地环境中更有保障。本地部署可以提供更高

    2024年02月08日
    浏览(54)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包