在本地PC运行 Stable Diffusion 2.0

这篇具有很好参考价值的文章主要介绍了在本地PC运行 Stable Diffusion 2.0。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

Stable Diffusion 2.0在前几天已经发布了,新版本在上一个版本的基础上进行了许多改进。OpenCLIP中新的深度检测和更好的文本到图像模型是主要的改进之一。

有很多的文章介绍了Stable Diffusion 2.0的改进,所以我们就不多介绍了,这里我们将介绍如何在本地PC上尝试新版本,因为只有我们实际运行成功了,我们才能够通过代码了解它是如何实现的。

在本地PC运行 Stable Diffusion 2.0

本文主要介绍如何在本地运行,所以并不涉及代码方面的工作,但是也不代表本文就很简单。

系统需求

  • Windows 10/11操作系统
  • Nvidia GPU RTX,至少12GB的RAM
  • 本地磁盘空间至少25GB

注意“模型可以在8GB的VRAM上运行,但分辨率将只能到256x256。

软件需求:

  • Anaconda
  • git
  • Pytorch

首先,我们安装环境

 conda install pytorch==1.12.1 torchvision==0.13.1 -c pytorch
 pip install transformers==4.19.2 diffusers invisible-watermark
 pip install -e .

创建虚拟环境

将代码克隆到本地:

https://github.com/Stability-AI/stablediffusion

然后用Anaconda创建一个新的环境:

 conda create --name sd2 python=3.10

在本地PC运行 Stable Diffusion 2.0

激活环境。然后安装相应的包:

 pip install -r requirements.txt

在本地PC运行 Stable Diffusion 2.0

安装iWatermark模块,虽然是可选的,但是如果不装可能会有问题,所以我们还是装一下:

 pip install transformers==4.19.2 diffusers invisible-watermark

在本地PC运行 Stable Diffusion 2.0

获取CUDA的最新版本。

 conda install -c nvidia/label/cuda-11.4.0 cuda-nvcc
 conda install -c conda-forge gcc
 conda install -c conda-forge gxx_linux-64=9.5.0

安装“xformer”这样可以提高效率和速度。

 git clone https://github.com/facebookresearch/xformers.git
 cd xformers
 git submodule update --init --recursive
 pip install -r requirements.txt
 pip install -e .
 cd ../stable-diffusion

在本地PC运行 Stable Diffusion 2.0

编译可能需要一段时间(一般情况下 10-20分钟,根据电脑有所区别)。

如果安装顺利,代码将自动设置U-Net和自编码器中的自注意层和交叉注意层,这样可以尽可能少的内存。

有了这些设置,我们现在开始准备模型。

使用模型生成图像

Stable Diffusion 2.0为不同的要求发布了单独的模型。请根据需要单独下载它们。

  • 稳定扩散2.0基础模型768x768 => 768-v-ema.ckpt (5 gb)
  • 稳定扩散2.0基础模型512x512 => 512-v-ema.ckpt (5 gb)
  • 稳定扩散2.0深度模型=> 512-depth-ema.ckpt (5.7 GB)
  • 稳定扩散2.0 X4 Upscaler => X4 - Upscaler -ema.ckpt (3.5 GB)
  • 稳定扩散2.0 inpainting => 512-inpainting-ema.ckpt (5.2 GB)

下载地址在这里:https://huggingface.co/stabilityai

把上面的模型下载到model目录

在本地PC运行 Stable Diffusion 2.0

然后可以测试一下是否能够生成图形

 python scripts/txt2img.py --prompt "a professional photograph of an astronaut
  riding a horse" --ckpt .\models\512-base-ema.ckpt 
 --config configs/stable-diffusion/v2-inference-v.yaml 
 --H 512 --W 512 --plms --n_samples 1

得到这条输出,说明图像已成功渲染。

在本地PC运行 Stable Diffusion 2.0

注意:如果你使用类似NVidia RTX 3060 Ti,那么因为它只有8GB的RAM。所以不足以支持512x512的图像,只能生成很糟糕的256x256的图像,如下所示:

在本地PC运行 Stable Diffusion 2.0

所以如果你有一个更强大的GPU,那么可以生成更好的图像。

https://avoid.overfit.cn/post/dbe660ce7f5e4580ba97f3c5a333317e

作者:Jim Clyde Monge文章来源地址https://www.toymoban.com/news/detail-490939.html

到了这里,关于在本地PC运行 Stable Diffusion 2.0的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • Stable Diffusion 2.0来了,皮卡智能AI早已“抢先”优化升级

    就在昨日,Stability AI发布了Stable Diffusion 2.0 版本上线,玩家惊呼V1还没整明白,V2版本就来了。其实在Stable Diffusion 1.0开源后,皮卡智能AI许多功能都是基于此模型,来进行升级优化的。 就图像修复而言,皮卡智能AI在Stable Diffusion 1.0 版本上增加了新的编码模型训练,该模型可

    2024年02月12日
    浏览(48)
  • Ai对话,Midjourney画图,Stable-Diffusion画图,网页版本2.0

    Siana 2.0全新版本,全新ui,全新体验 Project Name: Siana JDK=8 MySql=8.0 Redis=4.0 –客户端 登录 临时用户 注册(公众号注册,邮箱注册,账号密码注册) 基于SSE Ai 3.5/4.0 流式对话+上下文 Ai 画图 FlagStudio画图 Midjourney画图 Stable-Diffusion画图 stableStudio画图 公告查看 个人信息展示(剩余次

    2024年02月12日
    浏览(47)
  • Stable Diffusion 2.0 相比 1.5 是倒退吗?Prompt 实验给你真相

    Stability.ai 一周多前发布了 Stable Diffusion 2.0 模型。这是继 8 月 Stable Diffusion 1.4 版本以来最大的更新。但在 AI 图像生成模型激烈的竞争局面下,看起来社区并不买账。SD 2.0 在 Reddit 上招来群嘲,人们抱怨,SD 旧版本的 prompt,在 2.0 下不仅不再管用,甚至效果明显有倒退,生物体

    2024年02月02日
    浏览(24)
  • 高性能计算HPC照亮AIGC未来:PC集群+Stable Diffusion 打造极致游戏体验

    角色设计 | PC集群 | 增强现实 游戏设计 | PC农场 | PC Farm 随着科技的不断进步,虚拟现实、增强现实等技术已经逐渐成为了游戏设计中不可或缺的一部分。而在这些技术的背后,角色设计、PC集群、GAMEAI等方面的不断发展也为游戏的体验提供了更加丰富的可能性。而在这其中

    2024年02月09日
    浏览(55)
  • 一文读懂Stable Diffusion教程,搭载高性能PC集群,实现生成式AI应用

    图生图 | PC集群 | PC Farm | Stable 文生图 | 生成式AI | Stable Diffusion 在当今计算领域中,PC集群和Stable Diffusion技术的应用已经成为不可或缺的一部分。这些技术在深度学习、AI绘画、高性能计算、人工智能、大数据、ChatGPT、AIGC等领域中都具有重要的应用价值。特别是在AI生成式内

    2024年02月10日
    浏览(51)
  • Stable Diffusion 本地部署

    注意:如果没有显卡或显卡性能较弱的同学们不要尝试,不然到最后也还是不行!当然这些同学们可以去(免费,效果稍逊) Stable Diffusion - a Hugging Face Space by stabilityai Discover amazing ML apps made by the community https://huggingface.co/spaces/stabilityai/stable-diffusion 或者(收费,但是效果更好) D

    2023年04月14日
    浏览(69)
  • Stable Diffusion本地部署

    网络很重要,安装会因为超时失败,我是失败了很多次才成功 Windows10,N 卡(我的是古早的1070) 安装conda,也可以安装miniconda 进入stable-diffusion-webui目录 创建conda 虚拟环境 激活conda 环境 安装依赖 安装其他依赖 安装好后终端会显示服务以运行 直接访问域名,以上步骤安装顺利

    2024年02月09日
    浏览(48)
  • 本地部署Stable Diffusion

    报错:RuntimeError:“LayerNormKernelImpl” not implemented for ‘Half 解决方案: 产生报错的原因是因为显卡不支持half-float的数据类型,所以在启动项set COMMANDLINE_ARGS=后增加这一句 --precision full --no-half,以后运行webui-user.bat就可以了

    2024年02月11日
    浏览(51)
  • Stable Diffusion 本地部署教程

    最近看Stable Diffusion开源了,据说比Disco Diffusion更快,于是从git上拉取了项目尝试本地部署了,记录分享一下过程~ 这里是官网介绍:https://stability.ai/blog/stable-diffusion-public-release 科学上网。很多链接都需要用到。 显卡的显存需要足够大,至于多大没看到哪有说,反正3g绝对不行

    2023年04月11日
    浏览(49)
  • Stable Diffusion本地部署教程

    0.介绍与版本 1)介绍 Stable Diffusion是一个文本到图像的潜在扩散模型,由CompVis、Stability AI和LAION的研究人员在Latent Diffusion Model的基础上于2022年8月创建并推出。其核心技术源于AI视频剪辑技术创业公司Runway的首席研究科学家Patrick Esser以及慕尼黑大学机器视觉学习组的Robin Rom

    2024年04月10日
    浏览(53)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包