Stable Diffusion Web UI的原理与使用

这篇具有很好参考价值的文章主要介绍了Stable Diffusion Web UI的原理与使用。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

Stable Diffusion是一套基于Diffusion扩散模型生成技术的图片生成方案,随着技术的不断发展以及工业界对这套工程细节的不断优化,使其终于能在个人电脑上运行,本文将从github下载开始讲一讲如何使用Stable Diffusion Web UI进行AI图像的生成。

1.聊聊Diffusion

1.1 概念简介

StableDiffusion是基于扩散模型的应用,那就先来讲一讲什么是扩散模型。

我们知道在扩散模型出现之前,比较火的是GAN(对抗生成网络),GAN由生成器和判别器组成,两者相互博弈训练,最终产生较理想的输出。

但是GAN也有缺点,首先生成器和判别器不断进化的中间N个步骤完全是黑盒,无法调试。其次还有难以训练、模式坍缩等许多问题。

Diffusion模型并非新技术,而是更像是在另一个技术方向上的不断前进,相比GAN,Diffusion会将生成的每一个步骤都拆解出来进行反复训练。

好比绘制一幅简笔画,GAN是生成器和判别器不断进化,最终绘制完成简笔画。而Diffusion是将绘画的每一步拆解出来不断训练,最后完整的将所有步骤绘制出来:
Stable Diffusion Web UI的原理与使用,机器学习,机器学习,人工智能,人工智能作画,AI作画,深度学习

1.2 讲讲原理

Duffsion是一个在图像加噪去噪过程中进行生成的模型,假设一张完全没有噪点的图像到一张充满噪点无法辨认的图像会经过1000个步骤:
Stable Diffusion Web UI的原理与使用,机器学习,机器学习,人工智能,人工智能作画,AI作画,深度学习

那么在训练阶段,Diffusion模型首先会在这1000个步骤中随机选一步,先加噪,再通过网络去噪,反向传播时用该阶段的原始图片作为Loss。而这个加噪去噪的具体步骤,也并非直接加减,需要通过网络求出噪声变化值再减回去等,这里不做过多讲解。

这个去噪声的操作通过的就是Unet网络,这是一个残差卷积网络,因为结构呈U形所以得名。而我们输入的提示词也会先通过CLIP模型再编码进噪声中。

再后来出现了Latent Diffusion Models,即通过VAE这样的压缩技术,将原图通过VAE网络编码成一张尺寸比较小、包含潜空间数据的图片,再进行扩散处理,最终图像再通过VAE网络解码成原始图片。这项技术大大降低了显存的占用,也为后来的Stable Diffusion打下了基础。

2.Stable Diffusion Web UI

接下来讲讲实用的,关于Stable Diffusion与第三方开源的Web UI仓库。

2.1 Web UI简介

在github上直接查找StableDiffusion可以看到排名最靠前的有3个仓库:
Stable Diffusion Web UI的原理与使用,机器学习,机器学习,人工智能,人工智能作画,AI作画,深度学习
实际上Stable Diffusion 是由 CompVis、Stability AI 和 LAION一起开发的,因此CompVis和Stability-AI的仓库地址理论上都是官方仓库。
而stable diffusion web ui实际上是一个非官方开源项目,但这个才是我么一会要用的仓库,这个仓库真正做到了开箱即用,不需要配置Cuda、不会有奇怪的报错、连基础模型都会帮你自动下载好。

2.2下载与配置

2.2.1 启动Stable Diffusion

首先从AUTOMATIC1111仓库的Stable Diffusion Web UI进行下载,该仓库会自动下载StableDiffusion以及基础模型:
https://github.com/AUTOMATIC1111/stable-diffusion-webui

根据该仓库的教程说明,最后运行webui-user.bat即可。
Stable Diffusion Web UI的原理与使用,机器学习,机器学习,人工智能,人工智能作画,AI作画,深度学习
安装好并且webui-user.bat内的内容下载好后,在ip:127.0.0.1:7860可以打开StableDiffusion界面:
Stable Diffusion Web UI的原理与使用,机器学习,机器学习,人工智能,人工智能作画,AI作画,深度学习
左上角显示的是基础模型。

2.2.2 安装大模型

像SDXL这类算作大模型,像Lora、ControlNet算小模型,小模型需要依赖大模型的版本,大模型版本改变的话小模型就会失效报错。

下载大模型需要去另外2个github仓库查找。

不想折腾,也可以在这里下载大模型:
https://rentry.org/sdmodels
https://civitai.pro/

2.2.3 安装插件

使用Stable Diffusion web ui还可以进行插件的拓展,像较流行的Lora、Control Net这些最早都不是作为SD的插件开发的,而是有正经论文的学术内容,后来才拓展的StableDiffusion插件版本。

Control Net1.1全家桶可以在hugging face上下载:
https://huggingface.co/lllyasviel/ControlNet-v1-1/tree/main

还有最近短视频平台比较火的小和尚,嘴型生成SadTalker插件:
https://github.com/OpenTalker/SadTalker文章来源地址https://www.toymoban.com/news/detail-681448.html

到了这里,关于Stable Diffusion Web UI的原理与使用的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • 【Stable Diffusion】在windows环境下部署并使用Stable Diffusion Web UI---通过 Conda

    本专栏主要记录人工智能的应用方面的内容,包括chatGPT、AI绘图等等; 在当今AI的热潮下,不学习AI,就要被AI淘汰;所以欢迎小伙伴加入本专栏和我一起探索AI的应用,通过AI来帮助自己提升生产力; 订阅后可私聊我获取 《从零注册并登录使用ChatGPT》《从零开始使用chatGPT的

    2024年02月04日
    浏览(49)
  • Stable Diffusion web UI之X/Y/Z plot使用

    PASS CFG Scale 配置的越高,SD生成的图会更贴用户提供的 prompt 来进行生成,AI的自由度会下降,生成人物的时候特别需要注意,对于手脚脸部,过高的值更容易造成过拟合还有画面崩坏。 X/Y/Z plot脚本可以集成多组图片,方便对比不同参数对模型产生的影响以及在模型的不同阶

    2024年02月10日
    浏览(34)
  • 在矩池云运行 Stable Diffusion web UI,使用v1.5模型和 ControlNet 插件

    今天给大家介绍下如何在矩池云使用 Stable Diffusion web UI v1.5 模型和 Stable Diffusion ControlNet 插件。 租用机器需要选择内存大于8G的机器,比如 A2000,不然 Stable Diffusion web UI 启动加载模型会失败。(Killed 内存不足) 点击租用按钮,进入镜像筛选页面,点击右侧蓝色 Stable Diffusio

    2024年02月01日
    浏览(41)
  • Stable Diffusion Web UI

    Stable Diffusion Web UI 是一个基于 Stable Diffusion 的基础应用,利用 gradio 模块搭建出交互程序,可以在低代码 GUI 中立即访问 Stable Diffusion   Stable Diffusion 是一个画像生成 AI,能够模拟和重建几乎任何可以以视觉形式想象的概念,而无需文本提示输入之外的任何指导 Stable Diffusion

    2024年02月11日
    浏览(36)
  • 本地部署 Stable Diffusion web UI

    Stable Diffusion 是一个潜在的文本到图像的扩散模型。感谢 Stability AI 慷慨的计算捐赠和 LAION 的支持,我们能够在 LAION-5B 数据库的一个子集的 512x512 图像上训练一个潜伏扩散模型。与谷歌的Imagen 类似,这个模型使用了一个冻结的 CLIP ViT-L/14 文本编码器来调节模型的文本提示。凭

    2024年02月03日
    浏览(60)
  • Stable Diffusion web UI 安装教程

    欢迎来到猫说AI,wx搜索,猫说AI接入了最新版Chatgpt供大家免费使用。 注意:这是ubuntu20.04安装步骤! conda创建python虚拟环境 clone项目并下载依赖 3.安装依赖 修改lanch.py 注意由于网络限制,需要将所有github的地址前面都加上代理前缀,请自行修改 修改如下: 可以先运行起来

    2024年02月09日
    浏览(46)
  • Stable Diffusion web UI 部署详细教程

    本文使用 AutoDL 平台进行 Stable Diffusion web UI 云端部署 AutoDL 官网:AutoDL算力云 | 弹性、好用、省钱。租GPU就上AutoDL Stable Diffusion web UI 官网:AUTOMATIC1111/stable-diffusion-webui: Stable Diffusion web UI (github.com) 租用实例 选择社区镜像 AUTOMATIC1111/stable-diffusion-webui/NovelAI-Consolidation-Package-3.1

    2024年02月11日
    浏览(44)
  • Ubuntu 本地部署 Stable Diffusion web UI

    Stable Diffusion 是一个潜在的文本到图像的扩散模型。感谢 Stability AI 慷慨的计算捐赠和 LAION 的支持,我们能够在 LAION-5B 数据库的一个子集的 512x512 图像上训练一个潜伏扩散模型。与谷歌的Imagen 类似,这个模型使用了一个冻结的 CLIP ViT-L/14 文本编码器来调节模型的文本提示。凭

    2024年02月08日
    浏览(50)
  • Stable Diffusion Web-UI 安装指南

    Stable DIffusion 是 Stability.AI 开源的 text-to-image 模型,目前类似产品有 Midjourney 以及 OpenAI 的 DELL-2 ;从AI绘画效果上来说,Midjourney 目前公认是最好的;但从模型的可玩性和发展潜力来看,个人观点来看,Stable Diffsuion 是是最好的。 Stable Diffsuion Web-ui 是基于 Stable Diffsuion 开发的一

    2024年02月09日
    浏览(42)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包