Stable Diffusion - Easy Diffusion 图像生成工具的环境配置

这篇具有很好参考价值的文章主要介绍了Stable Diffusion - Easy Diffusion 图像生成工具的环境配置。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

欢迎关注我的CSDN:https://spike.blog.csdn.net/
本文地址:https://blog.csdn.net/caroline_wendy/article/details/131524075

版本v2.5.41

Stable Diffusion - Easy Diffusion 图像生成工具的环境配置,大模型(LLM&AIGC),AIGC,stable diffusion

Stable Diffusion 图像生成工具是一种基于深度学习的技术,可以从随机噪声中生成高质量的图像,利用 Diffusion Probabilistic Models 的概率模型,逐步地将噪声转化为目标图像,同时保持图像的稳定性和多样性。Stable Diffusion 图像生成工具的优点是,不需要预先训练一个生成器网络,而是可以直接从数据分布中采样图像,也可以适应不同的图像域,例如人脸、动物、风景等。Stable Diffusion 图像生成工具是一种创新的图像合成技术,可以为各种应用场景提供高效和实用的解决方案。

  • 安装网页:https://stable-diffusion-ui.github.io/docs/installation/

  • GitHub:https://github.com/AUTOMATIC1111/stable-diffusion-webui

在系统中,需要包含 conda 环境,不需要额外创建,在运行过程中,在文件夹中,就会创建默认的环境。

软件下载路径:

  1. 下载 Easy-Diffusion-Linux 压缩包。
  2. 解压压缩包,cd easy-diffusion
  3. 运行 bash start.sh
### Linux

1. [**Download** for Linux](https://github.com/cmdr2/stable-diffusion-ui/releases/download/v2.5.24/Easy-Diffusion-Linux.zip)
2. Extract:
   - Extract the file with your favourite file manager, or use `unzip Easy-Diffusion-Linux.zip` in a terminal.
   - After extracting the .zip file, please open a terminal, and go to the `easy-diffusion` directory.
3. Run:
   - In the terminal, run `./start.sh` (or `bash start.sh`)

This will automatically install Easy Diffusion, set it up, and start the interface. No additional steps are needed.

执行 bash start.sh ,开始安装环境,遇到 Git 工程无法下载,手动下载即可。需要注意的点,如下:

  1. 因国内网速问题,部分包无法安装,需要手动安装,参考Bug 2~5。
  2. GitHub 工程无法下载,也需要手动下载,建议使用 git ssh 方式。
  3. GitHub 模型无法下载,手动下载之后,放入相应的文件夹,即 easy-diffusion/models,具体参考源码。

遇到 Bug,则需要重新安装 Python 包,先激活 Conda 环境 conda activate easy-diffusion/installer_files/env ,再安装相应的 Python 包,即可。

conda activate stable_diffusion/easy-diffusion/installer_files/env

pip install facexlib==0.3.0 tb-nightly==2.14.0a20230702 sdkit==1.0.112 xformers==0.0.20 -i https://mirrors.aliyun.com/pypi/simple

模型手动下载地址,参考 stable-diffusion-webui 源码:

# codeformer
https://github.com/sczhou/CodeFormer/releases/download/v0.1.0/codeformer.pth

# gfpgan, gfpgan_model.py
https://github.com/TencentARC/GFPGAN/releases/download/v1.3.0/GFPGANv1.4.pth

# realesrgan, realesrgan_model.py
https://github.com/xinntao/Real-ESRGAN/releases/download/v0.2.5.0/realesr-general-x4v3.pth
https://github.com/xinntao/Real-ESRGAN/releases/download/v0.2.5.0/realesr-general-wdn-x4v3.pth
https://github.com/xinntao/Real-ESRGAN/releases/download/v0.2.5.0/realesr-animevideov3.pth
https://github.com/xinntao/Real-ESRGAN/releases/download/v0.1.0/RealESRGAN_x4plus.pth
https://github.com/xinntao/Real-ESRGAN/releases/download/v0.2.2.4/RealESRGAN_x4plus_anime_6B.pth
https://github.com/xinntao/Real-ESRGAN/releases/download/v0.2.1/RealESRGAN_x2plus.pth

# ESRGAN, esrgan_model.py
https://github.com/cszn/KAIR/releases/download/v1.0/ESRGAN.pth

# midas, d_models.py
# dpt_large
https://github.com/intel-isl/DPT/releases/download/1_0/dpt_large-midas-2f21e586.pt
# dpt_hybrid
https://github.com/intel-isl/DPT/releases/download/1_0/dpt_hybrid-midas-501f0c75.pt
# midas_v21
https://github.com/AlexeyAB/MiDaS/releases/download/midas_dpt/midas_v21-f6b98070.pt
# midas_v21_small
https://github.com/AlexeyAB/MiDaS/releases/download/midas_dpt/midas_v21_small-70d6b9c8.pt

Bug1: 遇到 Bug “Failed to connect to github.com port 443: Connection timed out”

即:

fatal: unable to access 'https://github.com/cmdr2/stable-diffusion-ui.git/': Failed to connect to github.com port 443: Connection timed out

EEEEEEEEEEEEEEEEEEEEEEEEEEEEEEEEEEEEEEEEEEEEEEEEEEEEE

ERROR: git clone failed

Error downloading Stable Diffusion UI. Sorry about that, please try to:
 1. Run this installer again.
 2. If that doesn't fix it, please try the common troubleshooting steps at https://github.com/cmdr2/stable-diffusion-ui/wiki/Troubleshooting
 3. If those steps don't help, please copy *all* the error messages in this window, and ask the community at https://discord.com/invite/u9yhsFmEkB
 4. If that doesn't solve the problem, please file an issue at https://github.com/cmdr2/stable-diffusion-ui/issues

Thanks!

位于:on_env_start.sh 脚本,进入 easy-diffusion/scripts 文件夹,手动下载 https://github.com/cmdr2/stable-diffusion-ui.git/,即可,推荐使用 git ssh 下载

git clone git@github.com:easydiffusion/easydiffusion.git

Bug2: 遇到 Bug “No module named facexlib”

这个问题,在安装sdkit时,也会遇到,即:

  Preparing metadata (setup.py) ... error
  error: subprocess-exited-with-error
  
  × python setup.py egg_info did not run successfully.
  │ exit code: 1
  ╰─> [17 lines of output]
      Traceback (most recent call last):
        File "/tmp/pip-install-ftrx1th1/gfpgan_051d13278c764431bd5491fa888528ee/setup.py", line 48, in get_hash
          from facexlib.version import __version__
      ModuleNotFoundError: No module named 'facexlib'
...

直接手动安装即可,即pip install facexlib==0.3.0

Bug3: 遇到 Bug “gfpgan 1.3.8 depends on tb-nightly”

切换安装源至 aliyun 即可:

pip install tb-nightly==2.14.0a20230702 -i https://mirrors.aliyun.com/pypi/simple

Bug4:遇到 Bug “No module named sdkit”

这个是关键安装包,即

  File "easy-diffusion/ui/easydiffusion/utils/save_utils.py", line 10, in <module>
    from sdkit.utils import save_dicts, save_images
ModuleNotFoundError: No module named 'sdkit'

先安装facexlibtb-nightly,再直接 pip install sdkit==1.0.112 ,即可。

Bug5: 遇到 Bug “No module ‘xformers’. Proceeding without it.”

No module 'xformers'. Proceeding without it.

切换安装源至 aliyun 即可:

pip install xformers==0.0.20 -i https://mirrors.aliyun.com/pypi/simple

运行成功,日志如下:

21:25:07.312 INFO cuda:1 Global seed set to 0                                      seed.py:65
Sampling:   0%|                                                        | 0/1 [00:00<?, ?it/s]21:25:07.484 INFO cuda:1 seeds used = [0]                                  sampler_main.py:64
100%|████████████████████████████████████████████████████████| 25/25 [00:01<00:00, 22.85it/s]
Sampling: 100%|████████████████████████████████████████████████| 1/1 [00:01<00:00,  1.53s/it]
21:25:09.258 INFO cuda:1 Task completed                                        renderer.py:73
21:25:09.507 INFO cuda:1 Session 1688389496479 task 139918897684288       task_manager.py:367
completed by NVIDIA A100-SXM4-80GB. 

输出测试图像,如下:

Stable Diffusion - Easy Diffusion 图像生成工具的环境配置,大模型(LLM&amp;AIGC),AIGC,stable diffusion

参考:

  • 知乎 - Anaconda-用conda创建python虚拟环境

  • How to fix “ModuleNotFoundError: No module named ‘facexlib’”

  • Bilibili - 新版stable-diffusion-webui安装的补充说明

  • CSDN - No module ‘xformers‘. Proceeding without it.

  • AI图片生成Stable Diffusion环境搭建与运行文章来源地址https://www.toymoban.com/news/detail-566484.html

到了这里,关于Stable Diffusion - Easy Diffusion 图像生成工具的环境配置的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • Amazon SageMaker + Stable Diffusion 搭建文本生成图像模型

    如果我们的 计算机视觉 系统要真正理解视觉世界,它们不仅必须能够识别图像,而且必须能够生成图像 。 文本到图像的 AI 模型仅根据简单的文字输入就可以生成图像 。 近两年,以ChatGPT为代表的AIGC技术崭露头角,逐渐从学术研究的象牙塔迈向工业应用的广阔天地。随着下

    2024年04月09日
    浏览(47)
  • Stable-Diffusion深度学习文本到图像生成模型

    https://zh.wikipedia.org/zh-cn/Stable_Diffusion https://en.wikipedia.org/wiki/Stable_Diffusion https://github.com/Stability-AI/stablediffusion Stability AI https://github.com/CompVis/stable-diffusion Stable Diffusion是2022年发布的深度学习文本到图像生成模型。 它主要用于根据文本的描述产生详细图像,尽管它也可以应用于

    2024年02月11日
    浏览(50)
  • Stable Diffusion本地部署教程:搭建你的AI图像生成环境

    Stable Diffusion作为一种先进的AI图像生成技术,近年来受到了广泛关注。它可以根据用户输入的文本描述,生成与之相符的详细图像。本文将指导你如何在本地环境中部署Stable Diffusion,让你能够亲自体验这一技术的强大功能。 在开始部署之前,确保你的计算机满足以下条件:

    2024年04月15日
    浏览(61)
  • 图像生成模型浅析(Stable Diffusion、DALL-E、Imagen)

    简单学习下图像生成模型的相关知识🤗 以下内容来自于李宏毅老师的视频讲解 课程主页:https://speech.ee.ntu.edu.tw/~hylee/ml/2023-spring.php 视频链接:机器学习2023(生成式AI) 这节我们来讲图像生成模型,在开始之前呢,我们先讲图像生成有什么特别的地方,那图像生成有什么特

    2024年04月24日
    浏览(45)
  • Diffusion扩散模型学习2——Stable Diffusion结构解析-以文本生成图像为例

    用了很久的Stable Diffusion,但从来没有好好解析过它内部的结构,写个博客记录一下,嘿嘿。 https://github.com/bubbliiiing/stable-diffusion 喜欢的可以点个star噢。 Stable Diffusion是比较新的一个扩散模型,翻译过来是稳定扩散,虽然名字叫稳定扩散,但实际上换个seed生成的结果就完全不

    2024年02月08日
    浏览(61)
  • Stable Diffusion复现——基于 Amazon SageMaker 搭建文本生成图像模型

    众所周知, Stable Diffusion扩散模型的训练和推理非常消耗显卡资源 ,我之前也是因为资源原因一直没有复现成功。 而最近我在网上搜索发现,亚马逊云科技最近推出了一个 【云上探索实验室】 刚好有复现Stable Diffusion的活动,其使用 亚马逊AWS提供的Amazon SageMaker机器学习平台

    2023年04月09日
    浏览(42)
  • Diffusion扩散模型学习3——Stable Diffusion结构解析-以图像生成图像(图生图,img2img)为例

    用了很久的Stable Diffusion,但从来没有好好解析过它内部的结构,写个博客记录一下,嘿嘿。 https://github.com/bubbliiiing/stable-diffusion 喜欢的可以点个star噢。 Stable Diffusion是比较新的一个扩散模型,翻译过来是稳定扩散,虽然名字叫稳定扩散,但实际上换个seed生成的结果就完全不

    2024年02月15日
    浏览(65)
  • Stable Diffusion - SDXL 模型测试与全身图像参数配置

    欢迎关注我的CSDN:https://spike.blog.csdn.net/ 本文地址:https://spike.blog.csdn.net/article/details/132085757 图像来源于 SDXL 模型,艺术风格是赛博朋克、漫画、奇幻。 全身图像是指拍摄对象的整个身体都在画面中的照片,可以展示人物的姿态、服装、气质等特点,也可以表达一种情绪或故

    2024年02月08日
    浏览(34)
  • 计算机视觉的应用20-图像生成模型(Stable Diffusion)的原理详解与相关项目介绍

    大家好,我是微学AI,今天给大家介绍一下计算机视觉的应用20-图像生成模型:Stable Diffusion模型的原理详解与相关项目介绍。大家知道现在各个平台发的各种漂亮的女生,这些漂亮的图片是怎么生成的吗,其实它们底层原理就是用到了Stable Diffusion模型。 Stable Diffusion是一种基

    2024年04月12日
    浏览(44)
  • Stable Diffusion - Stable Diffusion WebUI 支持 SDXL 1.0 模型的环境配置

    欢迎关注我的CSDN:https://spike.blog.csdn.net/ 本文地址:https://spike.blog.csdn.net/article/details/132056980 SDXL 1.0 版本 是 Stable Diffusion 的最新版本,是基于潜在扩散模型的文本到图像生成技术,能够根据输入的任何文本生成高分辨率、高质量、高多样性的图像,具有以下特点: 更好的成

    2024年02月14日
    浏览(49)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包