Stable Diffusion 本地部署

这篇具有很好参考价值的文章主要介绍了Stable Diffusion 本地部署。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

注意:如果没有显卡或显卡性能较弱的同学们不要尝试,不然到最后也还是不行!当然这些同学们可以去(免费,效果稍逊)
Stable Diffusion - a Hugging Face Space by stabilityaiDiscover amazing ML apps made by the communityhttps://huggingface.co/spaces/stabilityai/stable-diffusion

或者(收费,但是效果更好)

DreamStudioDreamStudio by Stability AI is a new AI system powered by Stable Diffusion that can create realistic images, art and animation from a description in natural language.https://beta.dreamstudio.ai/dream这两个网站上过过瘾。

本文主要参考 GitHub 上的使用描述

1. GitHub下载源码包

GitHub - CompVis/stable-diffusion: A latent text-to-image diffusion modelA latent text-to-image diffusion model. Contribute to CompVis/stable-diffusion development by creating an account on GitHub.https://github.com/CompVis/stable-diffusion

git clone https://github.com/CompVis/stable-diffusion

2. 下载模型参数

下载地址:https://huggingface.co/CompVis

根据自己的需要下载(建议下载-original版本):如需要 stable-diffusion-v-1-1-original 版本,则直接点击 stable-diffusion-v-1-1-original:

Stable Diffusion 本地部署

 再点击 sd-v1-1.ckpt 下载即可(文件一般是以G为单位):

Stable Diffusion 本地部署

 3. anaconda创建 ldm 环境

不熟悉 anaconda 的同学可以参考其他博客,这里不再赘述。

(建议在stable-diffusion目录下)打开命令行运行下面代码:

conda env create -f environment.yaml
conda activate ldm

如果已经有 ldm 环境的同学,也可以运行下面代码进行内部安装包更新:

conda install pytorch torchvision -c pytorch
pip install transformers==4.19.2 diffusers invisible-watermark
pip install -e .

4. 设置模型参数存放位置

Linux系统的同学运行下面代码:

mkdir -p models/ldm/stable-diffusion-v1/
ln -s <path/to/model.ckpt> models/ldm/stable-diffusion-v1/model.ckpt 

其中 <path/to/model.ckpt>是你上面下载模型参数时的存放位置

如果不想使用命令行或Window的同学可以先在 models/ldm 下手动创建 stable-diffusion-v1 文件夹,然后将刚才下载的模型参数改名为 model.ckpt 并放在 stable-diffusion-v1 目录下

5. 运行 stable-diffusion

在 stable-diffusion 目录下运行下面代码(确保此时已经激活了 ldm 环境):

python scripts/txt2img.py --prompt "a photograph of an astronaut riding a horse" --plms 

其中 --prompt 后面的即是描述性文字,可以根据需要更改(不要想着生成一些不好的东西,没有用的)。

一些可以调节的参数如下:

usage: txt2img.py [-h] [--prompt [PROMPT]] [--outdir [OUTDIR]] [--skip_grid] [--skip_save] [--ddim_steps DDIM_STEPS] [--plms] [--laion400m] [--fixed_code] [--ddim_eta DDIM_ETA]
                  [--n_iter N_ITER] [--H H] [--W W] [--C C] [--f F] [--n_samples N_SAMPLES] [--n_rows N_ROWS] [--scale SCALE] [--from-file FROM_FILE] [--config CONFIG] [--ckpt CKPT]
                  [--seed SEED] [--precision {full,autocast}]

optional arguments:
  -h, --help            show this help message and exit
  --prompt [PROMPT]     the prompt to render
  --outdir [OUTDIR]     dir to write results to
  --skip_grid           do not save a grid, only individual samples. Helpful when evaluating lots of samples
  --skip_save           do not save individual samples. For speed measurements.
  --ddim_steps DDIM_STEPS
                        number of ddim sampling steps
  --plms                use plms sampling
  --laion400m           uses the LAION400M model
  --fixed_code          if enabled, uses the same starting code across samples
  --ddim_eta DDIM_ETA   ddim eta (eta=0.0 corresponds to deterministic sampling
  --n_iter N_ITER       sample this often
  --H H                 image height, in pixel space
  --W W                 image width, in pixel space
  --C C                 latent channels
  --f F                 downsampling factor
  --n_samples N_SAMPLES
                        how many samples to produce for each given prompt. A.k.a. batch size
  --n_rows N_ROWS       rows in the grid (default: n_samples)
  --scale SCALE         unconditional guidance scale: eps = eps(x, empty) + scale * (eps(x, cond) - eps(x, empty))
  --from-file FROM_FILE
                        if specified, load prompts from this file
  --config CONFIG       path to config which constructs model
  --ckpt CKPT           path to checkpoint of model
  --seed SEED           the seed (for reproducible sampling)
  --precision {full,autocast}
                        evaluate at this precision

也可以实现图片转换图片,运行下面代码:文章来源地址https://www.toymoban.com/news/detail-413138.html

python scripts/img2img.py --prompt "A fantasy landscape, trending on artstation" --init-img <path-to-img.jpg> --strength 0.8

到了这里,关于Stable Diffusion 本地部署的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • Ubuntu上AMD显卡能够使用的stable diffusion webui部署方案流程

    本文环境使用实体设备,显卡是AMD RX6800XT。 系统是ubuntu20.04.5 LTS 桌面版,部署成功后也可以在评论区发出你的显卡型号和系统。 非虚拟化环境。分个100G的分区安装Ubuntu,可以与win共存!想用哪个系统就重启切换!慢慢看,中间涉及git、pip安装慢的可以装个“开发者边车”解

    2024年01月20日
    浏览(37)
  • Stable Diffusion云端部署流程与注意点

    在今天的大数据时代,AI绘图是企业必备的重要工具之一。而Stable Diffusion作为一款部署的AI绘图,得到了很多企业和团队的认可。在使用Stable Diffusion的过程中,云部署是一个非常重要的话题,本文将详细介绍Stable Diffusion云部署的流程以及注意点。 选择云平台  首先,我们需

    2024年02月07日
    浏览(37)
  • Stable Diffusion 本地部署

    注意:如果没有显卡或显卡性能较弱的同学们不要尝试,不然到最后也还是不行!当然这些同学们可以去(免费,效果稍逊) Stable Diffusion - a Hugging Face Space by stabilityai Discover amazing ML apps made by the community https://huggingface.co/spaces/stabilityai/stable-diffusion 或者(收费,但是效果更好) D

    2023年04月14日
    浏览(68)
  • Stable Diffusion本地部署

    网络很重要,安装会因为超时失败,我是失败了很多次才成功 Windows10,N 卡(我的是古早的1070) 安装conda,也可以安装miniconda 进入stable-diffusion-webui目录 创建conda 虚拟环境 激活conda 环境 安装依赖 安装其他依赖 安装好后终端会显示服务以运行 直接访问域名,以上步骤安装顺利

    2024年02月09日
    浏览(48)
  • 本地部署Stable Diffusion

    报错:RuntimeError:“LayerNormKernelImpl” not implemented for ‘Half 解决方案: 产生报错的原因是因为显卡不支持half-float的数据类型,所以在启动项set COMMANDLINE_ARGS=后增加这一句 --precision full --no-half,以后运行webui-user.bat就可以了

    2024年02月11日
    浏览(51)
  • Stable Diffusion本地部署教程

    0.介绍与版本 1)介绍 Stable Diffusion是一个文本到图像的潜在扩散模型,由CompVis、Stability AI和LAION的研究人员在Latent Diffusion Model的基础上于2022年8月创建并推出。其核心技术源于AI视频剪辑技术创业公司Runway的首席研究科学家Patrick Esser以及慕尼黑大学机器视觉学习组的Robin Rom

    2024年04月10日
    浏览(53)
  • Stable Diffusion 本地部署教程

    最近看Stable Diffusion开源了,据说比Disco Diffusion更快,于是从git上拉取了项目尝试本地部署了,记录分享一下过程~ 这里是官网介绍:https://stability.ai/blog/stable-diffusion-public-release 科学上网。很多链接都需要用到。 显卡的显存需要足够大,至于多大没看到哪有说,反正3g绝对不行

    2023年04月11日
    浏览(49)
  • AMD显卡 Ubuntu 部署Stable DIffusion WebUI基于Pytorch2.0.0 Rocm5.4.2

    Ubuntu 20.04.6 LTS Python系统自带3.8版本(虽然官方要求3.10.6,但是我3.8运行没发现问题) 显卡RX6500XT 4G Navi24核心 官网下载安装 在下载好的驱动文件目录,执行安装命令 先将源列表文件sources.list备份 打开sources.list文件 替换为国内镜像源,保存 这里我用阿里云的镜像源 https://d

    2024年02月02日
    浏览(43)
  • 本地化部署stable diffusion

    本文是根据https://zhuanlan.zhihu.com/p/606825889 和 https://blog.csdn.net/cycyc123/article/details/129165844两个教程进行的部署测试,终端是windows 前期需要安装python与git环境,这里不赘叙了,首先是几个下载包,可以提前下载: stable diffusion的web界面环境 https://pan.xunlei.com/s/VNQ4LqoKBidPdqSj2xMioVhs

    2023年04月09日
    浏览(70)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包