如何本地部署基于stable-diffusion的AI绘画(jupyter,python实现,详细,附代码)

这篇具有很好参考价值的文章主要介绍了如何本地部署基于stable-diffusion的AI绘画(jupyter,python实现,详细,附代码)。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

基于stable - diffusion 的本地部署AI绘画教程

自从Stable Diffusion 1.0模型发布以来,“AI文本图片生成”真正的变成普通人也能使用的技术。同时各种国内外AI绘图软件,也不断频繁更新,AI绘画的关注度也越来越高。

以下是本人自己生成出来的一些AI绘图(夹带私货木木枭^ ^)

如何本地部署基于stable-diffusion的AI绘画(jupyter,python实现,详细,附代码)

如何本地部署基于stable-diffusion的AI绘画(jupyter,python实现,详细,附代码)

对应的提示语prompt为:

"a cute portrait of rowlet,anime,warm style,suit , highly detailed, oil painting, concept art, smooth, sharp focus,high quality artwork"

那么如果我们想要本地部署一个真正属于自己的AI绘画模型,需要哪些东西呢。

要完成本次部署,我们需要导入一些包并且用里面封装好的参数来实现相应的功能,从而实现我们要的文字出图的功能.

接下来详细介绍一下大概的步骤。

操作环境: python 3.8.13
操作软件: VsCode
文件格式: ipynb

需要下载的包在后面会有讲到

1. 连接显卡

!nvidia-smi  

首先要让GPU连接到notebook上

单独运行该语句后,成功后会显示如下提示

如何本地部署基于stable-diffusion的AI绘画(jupyter,python实现,详细,附代码)

2. 本地下载transformershe和diffusers包:

%pip install diffusers==0.4.0  
%pip install transformers scipy ftfy  

由于这里是jupyter所以和python 的pip的方式有点不一样

或者通过conda下载也可以

如何本地部署基于stable-diffusion的AI绘画(jupyter,python实现,详细,附代码)

下载成功后会有如上提示

如果后面有

RuntimeError: CUDA error: no kernel image is available for execution on the device

类似这种提示,则说明一般是cuda或者python的版本出了问题

可能是版本不对,一般要求是3.8

3. 获取hugging face官网的access token:

安装好两个包后,就要开始获取用户的权限了,由于stable diffusion的hugging face上面的产品,要使用它的模型的时候需要一个token的申请。

因此我们看一下如何获得申请

1.	from huggingface_hub import notebook_login  
2.	  
3.	notebook_login()  

这里的代码只有两行

如果没有安装huggingface_hub这个包的话用conda下载一下就可以了

也是比较容易的

Conda install huggingface_hub

成功运行后会出现如下内容

如何本地部署基于stable-diffusion的AI绘画(jupyter,python实现,详细,附代码)

要拿到这个token需要我们登录hugging face的官网

注册一个账号,不需要手机号什么的,比较容易注册

  • 注册成功之后到个人设置这里

  • 如何本地部署基于stable-diffusion的AI绘画(jupyter,python实现,详细,附代码)

  • 获取token之后就可以正常运行了

  • 如何本地部署基于stable-diffusion的AI绘画(jupyter,python实现,详细,附代码)

成功登录获取之后如上图提示内容

4. 获取diffusers数据集并生成pipe管道

首先看一下这个的代码

1.	import torch  
2.	#from torch import autocast  
3.	from diffusers import StableDiffusionPipeline  
4.	  
5.	# make sure you're logged in with `huggingface-cli login`  
6.	#pipe = StableDiffusionPipeline.from_pretrained("CompVis/stable-diffusion-v1-4", revision="fp16", torch_dtype=torch.float16)    
7.	pipe = StableDiffusionPipeline.from_pretrained("./stable-diffusion-v1-4")   

这里导入了torch包和之前下载的diffusers包

进行模型,然后进行模型的加载

Pipe就是加载成功后获得模型的管道了

而这一句也是所有代码当中最核心的一句

这里的文件路径是一个模型包

可以在github或者huggingface上面都有,下载模型包

CompVis/stable-diffusion-v1-4 · Hugging Face

以上是官网链接

如何本地部署基于stable-diffusion的AI绘画(jupyter,python实现,详细,附代码)

整个模型大概10GB(现在可能不止了)

运行成功后没有提示语出现

5.将pipe管道部署到GPU上运行

如果我们使用CPU去跑这个模型,需要等待的时间将会非常非常的长,为了解决这个问题,这里提供了一个方法,可以将pipe管道移动到GPU上面去运行。

pipe = pipe.to("cuda")

但是这里会跟资源的分配有关,本地的电脑如果显卡没有这么强的话,很有可能会失败,例如提示显存不够给予去运算,例如本人的电脑如果开了其他运行程序就很容易出现内存分配不够的问题

如果内存不够建议可以使用谷歌提供的colab云平台来运行自己的服务,谷歌会免费分配一个显卡资源给colab的账号。

内存不足的时候运行上述代码会有相应的报错,注意看报错内容即可。

6. 使用prompt生成图片

当我们可以正常使用GPU来跑模型之后,就可以正式开始生成我们的图片啦!

我们只需要简单地输入一个字符串,就可以生成图片

1.	#提示语输入内容  
2.	prompt = "a photograph of an astronaut riding a horse"  
3.	#放入pipe中运行  
4.	image = pipe(prompt).images[0]   
5.	  
6.	  
7.	#直接显示图片  
8.	image 

运行该代码,会出现一个进度条进行等待,运行成功后如下所示。

如何本地部署基于stable-diffusion的AI绘画(jupyter,python实现,详细,附代码)

上图就是通过stable-diffusion模型生成的图片了

给出的提示语是“a photograph of an astronauut riding a horse”

可以看出给出的图片还是比较符合描述语的内容的,同时也有一种荒诞的感觉

最后:如果想要让画面更加精美,需要给prompt的内容加上更加细节的描述

如果自己想不到什么好的英文提示语,可以参考网站Lexica

这个网站允许用户上传自己的prompt生成的图片文章来源地址https://www.toymoban.com/news/detail-421186.html

如何本地部署基于stable-diffusion的AI绘画(jupyter,python实现,详细,附代码)
给出的图片还是比较符合描述语的内容的,同时也有一种荒诞的感觉

最后:如果想要让画面更加精美,需要给prompt的内容加上更加细节的描述

如果自己想不到什么好的英文提示语,可以参考网站Lexica

这个网站允许用户上传自己的prompt生成的图片

到了这里,关于如何本地部署基于stable-diffusion的AI绘画(jupyter,python实现,详细,附代码)的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • 部署本地化stable-diffusion遇到问题,求解

    (stable-diffusion-webui) C:Usersqinchstable-diffusion-webuiwebui-user.bat venv \\\"C:Usersqstable-diffusion-webuivenvScriptsPython.exe\\\" Python 3.10.6 | packaged by conda-forge | (main, Oct 24 2022, 16:02:16) [MSC v.1916 64 bit (AMD64)] Commit hash: 076d624a297532d6e4abebe5807fd7c7504d7a73 Traceback (most recent call last): File \\\"C:Usersqstable-diffu

    2024年02月03日
    浏览(58)
  • Windows下使用Anaconda本地部署Stable-Diffusion

    前言: 一、电脑配置要求 二、安装Anaconda 三、cuda和cudnn安装 四、Stable-Diffusion开源代码下载和依赖安装 五、启动服务 前言: 为什么本地部署?Stable-Diffusion是完全开源的,本地部署不受限于网络压力,自由出图,效率高,速度快,非常适合有一定电脑基础的同学们。当然跟

    2024年02月11日
    浏览(44)
  • AI-绘画:Stable-Diffusion部署分析

    目录 1.介绍下AI绘画(水一下) 1.1使用条件 2.工具准备和安装 2.1.工具下载 2.2.环境安装 3.Stable-Diffusion服务的启动 4.Stable-Diffusion的使用 5.模型文件 5.1模型文件下载  5.2模型文件安装 6. Stable-Diffusion优秀教程推荐 7.我的心得体会(水) 8.学习经历(水) 9.Git 的基本概念和使用方

    2024年02月11日
    浏览(65)
  • 记录本地部署Stable-diffusion所依赖的repositories和一些插件

    今天按照其他文章的步骤拉取好了 https://github.com/AUTOMATIC1111/stable-diffusion-webui 后,点击webui-user.bat后发现,repositories和models还得慢慢拉取,好吧,GitHub Desktop,启动! 这个花了挺长时间才找到: 基本上拉完上面的,就具备启动webui-user.bat的基本条件了。 超强辅助: 汉化

    2024年02月05日
    浏览(49)
  • 用免费GPU部署自己的stable-diffusion项目(AI生成图片)

    2021年时出现了 openAI 的 DALL,但是不开源。2022年一开年,DALL-E 2发布,依然不开源。同年7月,Google 公布其 Text-to-Image 模型 Imagen,并且几乎在同一时间段AI图像生成平台 Midjourney 也进行公测。同年8月,Stable Diffusion 的发布将AIGC和AI绘画彻底带出了圈。Stable Diffusion 是属于生成模

    2024年04月11日
    浏览(45)
  • 如何免费使用 Stable-Diffusion AI 绘画服务

    最近一直有朋友问我,自己设备配置不行怎么使用 Stable-Diffusion,问我有没有共享的 Stable-Diffusion AI 绘画服务能体验一下,付费也行。说实话听到付费我确实心动了,但我的机器作一次图 30s 起步,而付费的云服务器动辄一个月 4k+,只好抑制住这份心动。 但是总有办法的。

    2024年02月10日
    浏览(80)
  • 分享三个AI绘画工具:不用懂编程,不用会英语,有手就行(基于Stable-diffusion)

    01 | 最简单的工具:krita+Stable-diffusion 我最先用的是krita+Stable-diffusion插件,也是使用起来最简单的。 krita是一个类似Photoshop的图片处理软件,安装一个Stable-diffusion插件,就可以krita中用提示词来生成图片。 界面就是这个样子的,软件和插件都安装好以后,在提示词区域输入提

    2024年04月26日
    浏览(35)
  • 本地部署Stable Diffusion Webui AI 记录

    Stable Diffusion Webui AI本地部署基本分为两种方式: 1、使用大佬的打包好的安装包一键部署 b站秋葉aaaki 2、手动部署(个人实践记录)参考文章 1、 需要拥有NVIDIA显卡,GTX1060 (或者同等算力的N卡)以上,显存4G以上。 2、操作系统需要win10或者win11的系统。 3、内存16G或者以上,

    2024年02月05日
    浏览(55)
  • Stable diffusion ai图像生成本地部署教程

    前言 本文将用最干最简单的方式告诉你怎么将Stable Diffusion AI图像生成软件部署到你的本地环境 关于Stable Diffusion的实现原理和训练微调请看我其他文章 部署Stable Diffusion主要分为三个部分 下载模型(模型可以认为是被训练好的,生成图像的大脑) 部署Web UI(可通过浏览器访

    2024年02月04日
    浏览(42)
  • Stable-Diffusion+Window11 本地搭建

    我这边本地已经安装了python3.10.x,cuda,git,pytorch 首先是下载stablediffusion 然后是下载预训练模型 CompVis/stable-diffusion-v-1-4-original at main 然后就是启动, 这个时候会提示缺库,当然,不提示是最好的,如果缺的话可以留言,我这边压缩发送 就是这几个货,搞了我好久 然后就成

    2024年02月13日
    浏览(38)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包