在自己电脑运行Stable Diffusion和完整项目下载

这篇具有很好参考价值的文章主要介绍了在自己电脑运行Stable Diffusion和完整项目下载。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

初创公司StabilityAI在最近宣布发布了Stable Diffusion模型,这是一款功能强大并且可以在标准显卡上运行的AI图像生成器。

本文中将介绍如何下载代码和预训练模型,并且将其整合成一个能够在本地电脑运行的项目,最后也会提供完整项目的下载。
在自己电脑运行Stable Diffusion和完整项目下载

本地电脑运行

因为模型比较大,所以必须要有NVIDIA GPU,至少4GB VRAM,本地磁盘至少有15GB的空间,我们打包的项目解压后需要11G的磁盘。

除此以外还需要一个Python环境,这里我们使用3.8,最后就是git,因为我们需要从github中下载一些项目代码。

下载模型权重

从https://huggingface.co/CompVis/stable-diffusion下载模型和预训练权重。撰写本文的最新版本是v1.4-original。

在自己电脑运行Stable Diffusion和完整项目下载

在“Files and versions”选项卡下,单击检查点文件并下载它。

在自己电脑运行Stable Diffusion和完整项目下载

文件很大4.2GB,需要确保下载文件是完整的

从这个GitHub存储库下载下载Stable Diffusion,https://github.com/lstein/stable-diffusion。它是由lstein修改的原始源代码的一个分支,感谢lstein。

在自己电脑运行Stable Diffusion和完整项目下载

将文件解压缩到本地。在“ldm”文件夹中,创建一个名为“stable-diffusion-v1”的文件夹。如下图所示。

在自己电脑运行Stable Diffusion和完整项目下载

复制下载的模型文件sd-v1-4到stable-diffusion-v1文件夹中,将检其重命名为model.ckpt。

使用Anaconda创建运行环境:

conda env create -f environment.yaml
conda activate ldm

第一行命令会下载运行模型所需的所有依赖项和包。这里的文件也很大,大概几个GB,所以可能需要一段时间。

在自己电脑运行Stable Diffusion和完整项目下载

这样环境就准备好了,下面我们加载模型需要的几个小ML模型。

python scripts/preload_models.py

在继续之前,请确保看到了“success”的信息。

现在我们可以开始生成图像了。

python scripts/dream.py

命令行将在“dream>”处暂停,也就是说要我们输入文本了。

在自己电脑运行Stable Diffusion和完整项目下载

输入后会执行生成的过程

在自己电脑运行Stable Diffusion和完整项目下载

结果如下:

怎么样,还不错吧,如果我们想要调整参数怎么办?下面看看这个方法

创建一个生成图像的web服务

我们使用Gradio UI来将生成图像的模型封装成AP服务,并且提供一个web页面来进行参数的调整:

在自己电脑运行Stable Diffusion和完整项目下载

我将所有的依赖都整理成了完整的项目,下载链接放在本文的最后,文件比较大,下载完成后解压应该是这个样子:

在自己电脑运行Stable Diffusion和完整项目下载

双击“1)install.bat”文件。屏幕底部应该出现一条成功消息,这一步是从Github中下载几个依赖的包。

在自己电脑运行Stable Diffusion和完整项目下载

然后运行批处理文件“SD_OPT) run optimized txt2img.bat”。

因为加载的模型有4GB多,所以会很久没有相应,请耐心等待当加载完成后显示如下

在自己电脑运行Stable Diffusion和完整项目下载

如果有下面弹窗则可以忽略,我也不知道是什么问题,但是对于使用不影响,哈:

在自己电脑运行Stable Diffusion和完整项目下载

然后在浏览器中访问http://127.0.0.1:7860/,就打开Gradio UI。

然后我们输入:

photo of miniature Australian Shepherd puppy on pier in front of breathtaking mountain lake, epic scene, beautiful colors, high resolution

在自己电脑运行Stable Diffusion和完整项目下载

注意:提交按钮在最下面,要按submit才可以进行生成操作,结果还可以吧

总结

最后我们说明下问题:

1、我们这边测试4GB的卡可以生成384x384的图片,512的大概需要6G左右, 1024的则需要8G+,推理速度慢,根据显卡和图片大小不同,大概需要20-60s

2、生成的输入是可以支持中文的,但是不建议中文,因为很可能产生一些玄学的玩意,非常的诡异让人看了非常不舒服,所以建议将中文翻译成英文,并且越详细越好,这样生成的模型会很好

3、生成的图像会保存在workspace文件夹中,可以查看历史输入

4、项目直接内置了python,支持win10和win11,可以直接下载使用

下面来一个我的测试吧,猜猜这是用什么文本生成的?

在自己电脑运行Stable Diffusion和完整项目下载

one person who knows Chinese Kung Fu swing his fist fast and shoot five lightning from his hand,闪电5连鞭

可以看到,图上的那些疑似的方块汉字就是因为我们输入中包含汉字出来的,汉字比例越大越诡异,所以不建议直接输入汉字。

https://avoid.overfit.cn/post/29f156a0280b45e58770fe841fb9dbe0

关注我们的公众号 deephub-imba 发送 diffusion 或 扩散模型 可以获取本文的完整项目,项目较大打包压缩完6G+所以请注意磁盘空间占用和下载时间。文章来源地址https://www.toymoban.com/news/detail-404397.html

到了这里,关于在自己电脑运行Stable Diffusion和完整项目下载的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • 用免费GPU部署自己的stable-diffusion项目(AI生成图片)

    2021年时出现了 openAI 的 DALL,但是不开源。2022年一开年,DALL-E 2发布,依然不开源。同年7月,Google 公布其 Text-to-Image 模型 Imagen,并且几乎在同一时间段AI图像生成平台 Midjourney 也进行公测。同年8月,Stable Diffusion 的发布将AIGC和AI绘画彻底带出了圈。Stable Diffusion 是属于生成模

    2024年04月11日
    浏览(56)
  • 【深度学习】Stable Diffusion AI 绘画项目搭建详解,并运行案例

    先把人家的git放过来:https://github.com/CompVis/stable-diffusion 40.7k 的stars, flask 和 django 两个web框架也不过如此数量级吧。 就是给一段文字,它能按照文字描述给你画画。画出来的还挺好看,是一个text-to-image diffusion model 是基于transformer 和多模态的一个产品。 Stable Diffusion is a la

    2024年02月01日
    浏览(55)
  • Java中实现在线语音识别(科大讯飞免费的SKD)、SDK下载和IDEA项目搭建、成功运行【完整代码】

    科大讯飞官网:https://www.xfyun.cn/ 首先登陆讯飞开放平台:https://passport.xfyun.cn/login,微信扫码关注登录 注册新账号 登陆后界面后,进入产品服务–实时语音转写栏目 点击个人免费套餐,下面的立即领取,它会提醒我们去实名认证 实名认证一下 提交完认证之后 可以看到认证

    2023年04月21日
    浏览(47)
  • 完整指南:如何使用 Stable Diffusion API

    Stable Diffusion 是一个先进的深度学习模型,用于创造和修改图像。这个模型能够基于文本描述来生成图像,让机器理解和实现用户的创意。使用这项技术的关键在于掌握其 API,通过编程来操控图像生成的过程。 在探索 Stable Diffusion API 的世界前,需要把握以下基本概念: API(

    2024年04月09日
    浏览(63)
  • Windows端部署Stable Diffusion完整教程

    Python 3.10.6 Python3.10的安装方法(Windows10版本)_python3.10.10_ckirt的博客-CSDN博客 详细参见: Windows环境关于CUDA+CUDNN的安装教程_windows安装cuda和cudnn_不知名高校研究生的博客-CSDN博客 从github来取最新的SD仓库代码到本地 下载权重文件sd-v1-4.ckpt https://huggingface.co/CompVis/stable-diffusion-

    2024年02月16日
    浏览(40)
  • 【Stable diffusion inpaiting】训练自己数据集

    https://github.com/advimman/lama/tree/7dee0e4a3cf5f73f86a820674bf471454f52b74f https://github.com/advimman/lama/blob/main/bin/gen_mask_dataset.py 如果图像不是正方形,使用crop或者transform变换 配置文件修改 解释 运行配置文件 https://github.com/lorenzo-stacchio/Stable-Diffusion-Inpaint/blob/main/scripts/generate_llama_mask/README.m

    2024年02月02日
    浏览(37)
  • stable diffusion打造自己专属的LORA模型

    通过Lora小模型可以控制很多特定场景的内容生成。 但是那些模型是别人训练好的,你肯定很好奇,我也想训练一个自己的专属模型(也叫炼丹~_~)。 甚至可以训练一个专属家庭版的模型(family model),非常有意思。 将自己的训练好的Lora模型放到stableDiffusion lora 目录中,

    2023年04月09日
    浏览(80)
  • 用趋动云GPU部署自己的Stable Diffusion

    注:本文内容来自于对DataWhale的开源学习项目——免费 GPU 线上跑 AI项目 实践的学习,参见: Docs ,引用了多处DataWhale给出的教程。 1.创建项目 1)进入 趋动云 用户工作台,在当前空间处选择注册时系统自动生成的空间(其他空间无免费算力); 2)点击 快速创建 ,选择 创

    2024年02月05日
    浏览(32)
  • 训练自己的个性化Stable diffusion模型,LORA

    需要训练自己的LORA模型 1、有sd-webui有训练插件功能 2、有单独的LORA训练开源web界面 两个开源训练界面 1、秋叶写的SD-Trainer https://github.com/Akegarasu/lora-scripts/  没成功,主要也是cudnn和nvidia-smi中的CUDA版本不一致退出 2、 Kohya\\\'s GUI GitHub - bmaltais/kohya_ss    成功了 遇到问题1, cudn

    2024年02月04日
    浏览(57)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包