关于【Stable-Diffusion WEBUI】方方面面研究(内容索引)

这篇具有很好参考价值的文章主要介绍了关于【Stable-Diffusion WEBUI】方方面面研究(内容索引)。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

(零)前言

关于Stable-Diffusion WEBUI,我发现网上各种教程真的很多。
写得很好很详细的也不少,读了感觉比我写的好多了,无论是原理和相关论文还是操作和细节。
所以准备记录下Stable-Diffusion WEB UI的方方面面,以及哪里去看相关的资料。

同时自己写的东西也有点乱,得整理一下。呃在整理完以前,本篇还是会包含不少具体的内容。
这篇Index应该会不断的补充。

(0.1)我的相关文章索引

  • 🔗浅谈【Stable-Diffusion WEBUI】(AI绘图)的基础和使用

  • 生成控制:🔗插件-骨骼姿态(OpenPose) ➕ 🔗插件-ControlNet 1.1 新版 ➕ 🔗插件-面部修复 ➕ 🔗分区域提示词

  • 界面翻译:🔗插件-界面与中文翻译 ➕ 🔗插件-神奇离线自动翻译中文提示词

  • 扩展功能:🔗画布扩绘 ➕ 🔗批量替换人脸 ➕ 🔗过程动画输出 ➕ 🔗作品艺术AI评分 ➕ 🔗不健康内容过滤

  • 抠图放大:🔗附加功能-图片缩放&抠图 ➕ 🔗插件-超分辨放大StableSR

  • 模型相关:🔗复刻属于你的女神:再谈模型与参数 ➕ 🔗训练自己的LoRA模型

  • 模型相关:🔗细数模型:谁是最适合的模型&从哪里找到它们 ➕ 🔗模型对应的VAE ➕ 🔗模型工具箱插件

  • 模型相关:🔗管好大量的模型:名称+预览图+备注+分组管理 ➕ 🔗Part2 ➕ 🔗Part3

配合DFL:

  • 🔗【Stable-Diffusion】和【DeepFaceLab】配合:事半功倍……

编程API:

  • 🔗关于【SD-WEBUI】的API:开发代码示例和帮助文档

配合Photoshop:

  • 🔗关于Photoshop中的【Stable-Diffusion WEBUI】插件:Auto.Photoshop.SD.plugin

(0.2)本篇内容阅读提示

  • 我想画更好看:适合的模型,好的提示词,合理的参数。
  • 我要更多风格:(下载)更多的基础模型,LoRA模型。
  • 我要画我自己:训练自己的模型(训练自己的画风)。
  • 我的模型好么:可选附加网络(LoRA插件),对比模型/权重参数等。
  • 生成高分辨率:附加功能,插件:缩放。
  • 更好控制细节:插件:ControlNet。

(一)绘图

(1.1)模型

已经合并入:

🔗浅谈【Stable-Diffusion WEBUI】(AI绘图)的基础和使用

(1.2)绘图方式(文生图)

已经合并入:

🔗浅谈【Stable-Diffusion WEBUI】(AI绘图)的基础和使用

(1.3)插件:可选附加网络(LoRA插件)(Additional networks)

⭐需要在WEBUI中安装插件。
用于对比各种参数/模型生成图的不同效果(平时主要用于测试模型)参考:

🔗关于【SD-WEBUI】的LoRA模型训练:怎样才算训练好了?

(1.4)插件:ControlNet

⭐需要在WEBUI中安装插件。
🌟需要下载多个不同模型。

💡插件版本升级较大,相关内容请参考:

🔗探索【Stable-Diffusion WEBUI】的插件:ControlNet 1.1

配合ControlNet,可用骨骼姿态的插件来生成/编辑骨骼姿态图片,控制最终生成的图像中人物的动作:
可以参考这篇:

🔗探索【Stable-Diffusion WEBUI】的插件:骨骼姿态(OpenPose)

(1.5)脚本(Script)

  • x/y/z图表
    我只用过【x/y/z图表】,可以配合上面的可选附加网络,生成对比矩阵图片,一般用来测试模型。
    但自己观察到的对比图,和实际输出的模型参数组合,似乎有偏差,目前仅作参考吧。
  • Controlnet-M2M
    可以配合ControlNet把视频进行逐帧处理,最后形成一个GIF动图,参考:……制作跳舞小姐姐 m2m和mov2mov哪家强……
    有意思的是,连你选的ControlNet模型生成的中间图,也做成动画了。。。
    关于【Stable-Diffusion WEBUI】方方面面研究(内容索引)
    脚本可以通过安装插件扩充。

(1.6)绘图方式(图生图)

大部分设置和上面文生图一样,只是需要从某张已有的图片出发,可以:

  1. 参考已有的图片生成新的图片(图生图)。
  2. 从涂鸦开始生成新的图片。
  3. 修改图像部分内容(局部重绘)。

其实 局部重绘 功能特别有用,也特别好玩。
比如出了一张很满意的图,但是小部分画错了)。
比如去掉草坪上不和谐的石块。
比如让主角出现在任何可以重绘的场景中。

相对局部重绘,还有画布扩绘(脑补图片外围内容)。
甚至有【无限缩放视频】插件。参考:

🔗探索【Stable-Diffusion WEBUI】的插件:画布扩绘(Outpaint)

(1.7)图片处理(附加功能:放大/抠图等)

文生图/图生图以外的功能。
为了避免索引过长,这部分内容单独出去了。参考:

🔗探索【Stable-Diffusion WEBUI】的附加功能:图片缩放&抠图

(二)训练

已单独重新写过了,稍微详细一些。参考:

🔗关于【SD-WEBUI】的LoRA模型训练:怎样才算训练好了?

嗯,似乎比以前更明白了一些。文章来源地址https://www.toymoban.com/news/detail-449721.html

到了这里,关于关于【Stable-Diffusion WEBUI】方方面面研究(内容索引)的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • NovelAi + Webui + Stable-diffusion本地配置

    推荐 dev-sidecar  系统版本 windows10,windows11 显卡(越强越好,显存越大越好,本人是RTX 3060)用AMD显卡的参考:Install and Run on AMD GPUs · AUTOMATIC1111/stable-diffusion-webui Wiki (github.com)进行配置 内存(16G可以正常运行,8G没有测试) CUDA( 下载低于现显卡版本的 ) Anaconda 或者 Git (此

    2024年02月01日
    浏览(37)
  • Stable-diffusion WebUI API调用方法

    写这篇文章的主要原因是工作中需要写一个用训练好的模型批量生图的脚本,开始是想用python直接加载模型,但后来发现webui的界面中有很多用起来比较方便的插件和参数,最终改成调用WebUI接口的方式来批量生图。 Stable-diffusion的webui界面使用比较方便,但是它的api文档比较简

    2024年02月08日
    浏览(41)
  • stable-diffusion、stable-diffusion-webui、novelai、naifu区别介绍

    Stable Diffusion 是一个基于 Latent Diffusion Models (潜在扩散模型,LDMs)的文图生成(text-to-image)模型。它由 CompVis 、 Stability AI 和 LAION 共同开发,通过 LAION-5B 子集大量的 512x512 图文模型进行训练。我们只要简单的输入一段文本, Stable Diffusion 就可以迅速将其转换为图像,同样我

    2024年02月09日
    浏览(26)
  • 探索【Stable-Diffusion WEBUI】的插件:批量替换人脸

    本篇主要提到WEBUI似乎和主线剧情无关的插件,可以批量改变多张图片的面部为AI生成的内容。 更多不断丰富的内容参考:🔗 《继续Stable-Diffusion WEBUI方方面面研究(内容索引)》 参考:🔗插件官网 可以从WEB UI中直接安装。 安装后在图生图最下面的 脚本 下拉列表中, 它需要

    2024年02月09日
    浏览(63)
  • 闲谈【Stable-Diffusion WEBUI】的插件:绘图过程动画输出

    本篇主要提到WEBUI的过程动画输出插件,把AI绘图的过程,从完全噪点到成品的过程做成动画视频。 更多不断丰富的内容参考:🔗 《继续Stable-Diffusion WEBUI方方面面研究(内容索引)》 参考:https://github.com/vladmandic/sd-extension-steps-animation 可以从WEB UI中直接安装。 安装后出现在和

    2024年02月16日
    浏览(39)
  • 探索【Stable-Diffusion WEBUI】的插件:ControlNet 1.1

    本篇主要提到ControlNet新版本的使用,和旧版本的变化,并偷懒参考了别人很不错的文章。 更多不断丰富的内容参考:🔗 《继续Stable-Diffusion WEBUI方方面面研究(内容索引)》 WEBUI的插件里, ControlNet 是少数几个不需要翻译的插件,因为翻译了也没意思: 控制网络 ? 它的作用是

    2024年02月09日
    浏览(34)
  • 探索【Stable-Diffusion WEBUI】的插件:骨骼姿态(OpenPose)

    本篇主要提到OpenPose和相关的插件,配合ControlNet使用,可以指定人物的动作。 更多不断丰富的内容参考:🔗 《继续Stable-Diffusion WEBUI方方面面研究(内容索引)》 骨骼姿态很有用,可以控制生成人物的动作。 我们可以用ControlNet或各种插件,从图片中提取人物的骨骼姿态。 也可

    2024年02月04日
    浏览(51)
  • stable-diffusion的webui和comfyuig共享模型路径

     1.修改上图extra_model_paths.yaml.example为extra_model_paths.yaml 2.将base_path: path/to/stable-diffusion-webui/修改成你的/stable-diffusion-webui安装路径(例如:base_p: D:/stable-diffusion-webui) 做个记录

    2024年02月04日
    浏览(39)
  • 探索【Stable-Diffusion WEBUI】的附加功能:图片缩放&抠图

    本篇单独讲解了WEBUI内置的附加功能:图片缩放——主要是默认4x的放大图片;还有同一页的抠图插件。 更多不断丰富的内容参考:🔗 《继续Stable-Diffusion WEBUI方方面面研究(内容索引)》 附加功能就是在文生图,图生图以外,对图片的其它处理。 在没有安装更多插件的时候,

    2023年04月24日
    浏览(57)
  • 探索【Stable-Diffusion WEBUI】的插件:画布扩绘(Outpaint)

    本篇主要提到图生图的扩展使用,也就是画布扩绘(Outpaint),在不改变原画的基础上,扩大画布补充内容。 更多不断丰富的内容参考:🔗 《继续Stable-Diffusion WEBUI方方面面研究(内容索引)》 我们都知道,图生图当中可以用蒙版修改/去掉图片中某一部分内容,而不改变图片其

    2024年02月06日
    浏览(51)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包