在 Linux 本地部署 stable diffusion

这篇具有很好参考价值的文章主要介绍了在 Linux 本地部署 stable diffusion。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

由于工作站安装的是 ubuntu,卡也在上面,就只能在 ubuntu 上部署安装 stable diffusion 了。另外,Linux 上使用 stable diffusion 也会方便很多。

1 准备工作

  • NVIDIA 官网下载驱动,主要是为了规避多卡驱动不同的问题。由于本机是两张一样的卡,就可以省去这一步。如果存在不同型号的多卡驱动不兼容的问题,就需要去官网下载。
  • 安装 python 3.10
  • 安装 CUDA11.8(pytorch2.x,xformers),对 stable diffusion 兼容比较好
    • 支持 pytorch2.x
    • 支持 xformers,可以加速图片生成

2 deploy stable diffusion

  • github stable diffusion webUI

        git clone https://github.com/AUTOMATIC1111/stable-diffusion-webui.git
    
  • 配置 venv python 虚拟环境,因为不同模型的 python 版本要求不同

        # 创建虚拟环境
        python3 -m venv venv
    
        # 进入虚拟环境
        source venv/bin/activate
        # 退出虚拟环境
        deactivate
    
    

    也可以使用 conda 来进行虚拟环境的创建和管理。

  • Stable diffusion WebUI 启动,自动安装依赖

        # 启动,会自动下载依赖
        ./webui.sh --xformers
    

3 报错解决

‘’’
这里可能会出现一些报错

  1. Cannot locate TCMalloc(improves CPU memory usage),这个报错是因为缺少 libgoogle-perftools4 和 libtcmalloc-minimal4,直接安装即可
    sudo apt install libgoogle-perftools4 libtcmalloc-minimal4 -y

  2. This scripts must not be launched as root, aborting…

解决方法:
bash webui.sh -f
‘’’

  1. OSError: Can’t load tokenizer for ‘openai/clip-vit-large-patch14’. If you were trying to load it from ‘https://huggingface.co/models’, make sure you don’t have a local directory with the same name. Otherwise, make sure ‘openai/clip-vit-large-patch14’ is the correct path to a directory containing all relevant files for a CLIPTokenizer tokenizer.

解决方法:
运行时它需要访问huggingface.co去下载一些模型需要的文件,而大陆用户连接不上huggingface.co,导致部署失败。
下载文件并进行配置, 让 stable diffusion 访问本地数据, 放置到你所需要的目录, 开始进行配置,这些文件(clip)是模型中encoder所需要的,我们可以从报错信息中去发现是哪里调用了这个openai/clip-vit-large-patch14,去修改这个路径配置即可。

在 Linux 本地部署 stable diffusion,机器学习,LLM,linux,stable diffusion,深度学习

这里的配置会导致我们运行时会去huggingface.co(外网)找这个文件,只需要将这个改成我们之前下载所放置的路径即可, 一共四处

在 Linux 本地部署 stable diffusion,机器学习,LLM,linux,stable diffusion,深度学习

  1. RuntimeError: GET was unable to find an engine to execute this computation

解决方法:
因为torch torchvision cuda以及python版本都是有兼容关系的, 这三者安装兼容版本就可以了.

检测torch和cuda是否能用:

import torch
print(torch.__version__)
print(torch.cuda.is_available())

在 Linux 本地部署 stable diffusion,机器学习,LLM,linux,stable diffusion,深度学习

测试:

import torch

print(torch.cuda.is_available())
num_gpu =1 
# Decide which device to run on
device = torch.device("cuda:0" if (torch.cuda.is_available() and num_gpu > 0) else "cpu")
print(device)
print(torch.cuda.get_device_name(0))
print(torch.rand(3,3).cuda())

在 Linux 本地部署 stable diffusion,机器学习,LLM,linux,stable diffusion,深度学习

检查cudnn是否可用:

print(torch.backends.cudnn.version())

在 Linux 本地部署 stable diffusion,机器学习,LLM,linux,stable diffusion,深度学习文章来源地址https://www.toymoban.com/news/detail-799865.html

到了这里,关于在 Linux 本地部署 stable diffusion的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • Stable Diffusion WebUI linux部署问题

    当我部署好环境后,准备大张旗鼓开搞时,进入项目地址运行python launch.py后发现 下面连接着的报错是 OSError: Can\\\'t load tokenizer for \\\'openai/clip-vit-large-patch14\\\'. If you were trying to load it from \\\'https://huggingface.co/models\\\', make sure you don\\\'t have a local directory with the same name. Otherwise, make sure \\\'opena

    2024年02月08日
    浏览(26)
  • Stable Diffusion WebUI Linux系统部署

    因为有AIGC方面的需要,所以研究了一下大火的stable diffusion,我自己之前没有部署这个的经验,所以基本是从0开始研究,在网上搜了各种教程一步一步的终于在服务器上成功运行了Stable Diffusion WebUI ,以此记录一下我的部署过程,方便后面需要的时候回看。 2.1开源代码连接

    2024年02月02日
    浏览(25)
  • Linux端部署Stable Diffusion报错解决

    【新修正】手把手教你在linux中部署stable-diffusion-webui N卡A卡显卡可用 - 哔哩哔哩 (bilibili.com) 参照如上教程进行部署,感谢作者的教程 实际部署中遇到如下bug,主要是在运行启动脚本的时候 sh start.sh 1、RuntimeError: cannot import name \\\'_compare_version\\\' from \\\'torchmetrics.utilities.imports\\\' 需要降

    2024年02月14日
    浏览(29)
  • stable diffusion webui 安装部署(linux系统)

    文中部署stable diffusion webui所使用的机器是腾讯云服务器linux系统,centos7 在这里使用anaconda安装,优势就是可以方便地安装和管理软件包,同一系统上可以同时使用不同版本的 Python 和第三方软件包。如果你需要安装多个系统,而且依赖软件版本不同,那就安装anaconda吧。 1、下

    2024年02月09日
    浏览(31)
  • Linux部署Stable Diffusion WebUI以及遇到的问题

    建议配置代理后运行,否则真的很难运行成功 可以参考另一篇文章,在Linux配置Clash代理 报错如下: 解决方法,在webui.sh 文件加上一句,(竟然有效,我也没想到) 解决方法:根据提示信息,提前下好,放到指定文件夹下 详细教程链接: https://ivonblog.com/posts/stable-diffusion-

    2024年02月09日
    浏览(29)
  • stable diffusion webui Linux Centos 详细部署教程

       创建一个python=3.10.6的环境,激活该环境 这里参考了以下文章: 【AI作画】stable diffusion webui Linux虚拟机 Centos 详细部署教程 服务器CentOS 7 安装 Stable Diffusion WebUI ,并映射到本地浏览器 CentOs7 + Stable Diffusion + Novel AI实现AI绘画stable diffusion webui安装部署教程 注意一个点就是需

    2024年02月09日
    浏览(72)
  • 【AIGC】如何在Windows/Linux上部署stable diffusion

    GPU环境安装:NVIDIA驱动和cuda(注意版本,建议安装cuda11.7,方便后续使用xformer) 配置git环境 git拉取stable diffusion项目 配置python虚拟环境 安装GPU版torch 安装虚拟环境依赖包:项目本身的requirement及子项目依赖 下载模型文件 启动stable diffusion 独立显卡:最低配置4GB显存,基本配

    2024年04月23日
    浏览(22)
  • Linux云端部署stable diffusion保姆级教程——基于腾讯云,ubuntu系统

    #本教程也参考了其他教程,这个是整合版,带#的是注释,不带#的就是命令,需要一行一行复制,然后按回车执行 #最好选择境外Linux,网络环境好,境内需要魔法,下面开始—— #从控制台登录,最好是OrcaTerm登录,复制比较方便 #第一步下载miniconda安装包 #第二步安装 #第三

    2024年02月13日
    浏览(31)
  • Stable Diffusion XL webui Linux服务器部署(保姆级教程)

    本人把部署过程遇到的坑,会尽可能详细地写在这篇文章中,以供参考。希望能对大家有所帮助! 4张RTX 4090,NVIDIA驱动版本为525.60.13,CUDA版本为12.0。 我部署的SDXL版本为SDXL-refiner-1.0,虽然SDXL官方github提供了UI界面的脚本,但是用起来不如 AUTOMATIC1111开发的好用,所以还是推

    2024年02月04日
    浏览(37)
  • 【AI作画】stable diffusion webui Linux虚拟机 Centos 详细部署教程

    环境:虚拟机Centos7、6处理器、8G内存+10G交换内存、没有GPU使用CPU硬解 windows版本的可以直接使用整合包:看评论的转载链接自行下载,解压即可用 提示:这里可能source后版本是1.8.3,只需要重新yum remove git source /etc/profile 提示:注意最后修改vim 和 urlgrabber-ext-down 提示:我这里

    2024年02月11日
    浏览(37)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包