一分钟玩转Stable Diffusion

这篇具有很好参考价值的文章主要介绍了一分钟玩转Stable Diffusion。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

用计算机视觉模型生成各种各样的图片已经不是什么新鲜的事了,但是最近新出的一款AI绘画模型Stable Diffusion确实惊艳到了各位小伙伴,无论是从软件的使用难度还是绘画生成的结果,都有可圈可点的地方,下面我们就一起尝试用该AI绘画软件画出一幅精美的图片。

第一步:配置Python环境和安装Git软件

Stable Diffusion模型需要在Python3.10.6及以上的环境中才能顺利运行模型,所以在正式安装模型之前,我们需要安装Python3.10.6,下面我介绍在conda环境下安装python虚拟环境并使用在Stable Diffusion模型中的过程:

1、使用conda安装符合条件的python虚拟环境

conda create --name my_python_name python=3.10.8

目前python的环境已经更新到了3.11.2版本了,但是使用上述命令新建一个python=3.11.2版本的环境将无法实现,在错误提示栏中,会出现目前使用conda命令可以现在的版本,选择符合环境配置条件的版本即可;

2、更改环境变量,是计算机目前可以识别的python环境为3.10.8版本的(我的虚拟环境的名字为diffusion),更改结果如下

stable diffusion,stable diffusion,深度学习,人工智能

3、然后下载git,下载网址为Git - Downloading Package (git-scm.com)

第二步:下载Stable-Diffusion模型包

1、在github开源仓库中下载Stable-Diffision-webui包,地址为:GitHub - AUTOMATIC1111/stable-diffusion-webui: Stable Diffusion web UI

在下载好模型的压缩包并解压后,出现如下界面,点击红色箭头指向的文件并运行;

 stable diffusion,stable diffusion,深度学习,人工智能

 点击之后,会弹出一个command窗口,这可能需要花费大量的时间等待模型下载对应的代码包和参数包,在下载的过程中可能会出现各种各样的错误,此时不要惊慌,如果出现错误后有三种办法:

①重新在运行一次;

②如果重新运行还是不行,关闭或者打开魔法上网;

③根据出现错误的提示,手动打开无法下载的网页,然后将下载的数据报放入命令行中提示的目标文件夹下;(比如在安装过程中需要在Stable-diffusion文件夹下手动输入checkpoint文件夹)

 2、如果需要中文语言包,可以下载如下中文语言包扩展,下载界面网址为:

GitHub - VinsonLaro/stable-diffusion-webui-chinese: stable-diffusion-webui 的汉化版本

在该网址中用详细的安装和使用方法,如下图:

stable diffusion,stable diffusion,深度学习,人工智能

 但是在安装在安装过程中,可能会出现安装的目标文件夹变为:../temp/../stable-diffusion-webui-chinese的情况,如果出现该情况就无法在扩展栏中找到对应的组件,这时只需要把temp文件夹删除,重新下载一次就好。(下载过程中最好魔法上网,下面好多步骤都需要如此,如果模型上网时总是报错,那就关闭魔法上网重试,反正怎么行得通就怎么来);

第三步:人物面部清晰化和人物肤色调调整

 按道理,完成第二步,便可以进行AI绘图了,但是,在完成设置完参数和输入prompt描述词后,点击生成图像(如果选择了面部修复和分辨率调整选项)最后生成的图像任务的肤色是灰色的,而且如很有可能在图片生成的最后一刻报错,图片无法顺利生成,这是什么原因呢,这里我列举了两个原因:

①对于面部修复模型codeformer,在第一次生成图像时,由于某些原因,coderformer文件夹下的参数模型下载到一半便突然停止下载了,导致后面运行时,在图像生成过程中不会自动再次下载模型参数,而原来的模型参数不完整,导致模型无法运行,从而面部修补无法进行,组中程序报错,图片无法生成;

②其他软硬件错误,如显存不够,这可以将图片的大小和分辨率调低;

现在步入正题,如何调整任务肤色:

1、在Stable-diffusion-master文件夹下新建一个VAE文件夹,然后下载对应的模型参数放入该文件夹;

stabilityai/sd-vae-ft-mse-original at main

2、在画图界面中的设置栏中选择stable-diffusion选项卡,然后选择模型的VAE属性,选择刚才导入的模型中的一个;

3、保存设置,重新加载UI界面;

4、在更新设置后第一次绘图时,模型还需要重新下载新的模型,这里需要魔法上网,等待几分钟,便可以看到一张美丽冻人的小姐姐出现啦!(当然,参数设置和prompt描述词可以根据自己的喜好在网上搜索呀)

stable diffusion,stable diffusion,深度学习,人工智能文章来源地址https://www.toymoban.com/news/detail-788098.html

到了这里,关于一分钟玩转Stable Diffusion的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • 玩转AIGC,5分钟 Serverless 部署 Stable Diffustion 服务

    有没有一种可能,其实你早就在AIGC了?阿里云将提供免费Serverless函数计算产品资源,邀请你,体验一把AIGC级的毕加索、达芬奇、梵高等大师作画的快感。下面请尽情发挥你的想象空间!!双重奖品设置,完成体验场景可得社区1000 积分兑换奖品,还可参加 AI 生成图像比赛赢

    2024年02月09日
    浏览(60)
  • Stable-Diffusion深度学习文本到图像生成模型

    https://zh.wikipedia.org/zh-cn/Stable_Diffusion https://en.wikipedia.org/wiki/Stable_Diffusion https://github.com/Stability-AI/stablediffusion Stability AI https://github.com/CompVis/stable-diffusion Stable Diffusion是2022年发布的深度学习文本到图像生成模型。 它主要用于根据文本的描述产生详细图像,尽管它也可以应用于

    2024年02月11日
    浏览(46)
  • Stable Diffusion:一种新型的深度学习AIGC模型

    潜在扩散模型 | AIGC| Diffusion Model  图片感知压缩 | GAN | Stable Diffusion 随着生成型AI技术的能力提升,越来越多的注意力放在了通过AI模型提升研发效率上。业内比较火的AI模型有很多,比如画图神器Midjourney、用途多样的Stable Diffusion,以及OpenAI此前刚刚迭代的DALL-E 2。 对于研发

    2024年02月09日
    浏览(62)
  • 【深度学习】Stable Diffusion AI 绘画项目搭建详解,并运行案例

    先把人家的git放过来:https://github.com/CompVis/stable-diffusion 40.7k 的stars, flask 和 django 两个web框架也不过如此数量级吧。 就是给一段文字,它能按照文字描述给你画画。画出来的还挺好看,是一个text-to-image diffusion model 是基于transformer 和多模态的一个产品。 Stable Diffusion is a la

    2024年02月01日
    浏览(56)
  • 【深度学习】AUTOMATIC1111 / stable-diffusion-webui docker

    代码:https://github.com/AUTOMATIC1111/stable-diffusion-webui/ CUDA 11.8 制作了一个镜像,可以直接开启stable diffusion的web ui 服务。 确定自己的显卡支持CUDA11.8,启动此镜像方式: 进入容器后启动stable-diffusion-webui : 当然,你可以把model文件通过docker -v挂载出来,方法如下。 先启动容器:

    2024年02月05日
    浏览(51)
  • 使用Google colab玩转Stable Diffusion

    点击进入GitHub链接: https://github.com/camenduru/stable-diffusion-webui-colab Ctrl+F搜索 ChilloutMix ,选择选择ChilloutMix 模型,只要点击「Stable」就会自动跳到Google Colab 页面 进入Google colab页面,点击运行 点击运行后会跳出警告,选择 仍然运行 等待连接之后Google colab就开始运行脚本,需要等

    2024年01月25日
    浏览(54)
  • [深度学习]stable-diffusion-webui部署后局域网无法访问

    当你把stable-diffusion-webui环境安装好后,启动python webui.py后发现,局域网里面是不能访问这个网页的,为了解决这个问题翻阅资料发现解决起来很简单。我们去 stable-diffusion-webui/modules/shared.py这个文件,把--listen设置为True,具体看下面代码 增加default=True即可。

    2024年02月12日
    浏览(68)
  • 【深度学习】SDXL tensorRT 推理,Stable Diffusion 转onnx,转TensorRT

    juggernautXL_version6Rundiffusion.safetensors文件是pth pytroch文件,需要先转为diffusers 的文件结构。 FP16在后面不好操作,所以最好先是FP32: 有了diffusers 的文件结构,就可以转onnx文件。 项目:https://huggingface.co/docs/diffusers/optimization/onnx stabilityai/stable-diffusion-xl-1.0-tensorrt 项目:https://hug

    2024年01月19日
    浏览(54)
  • 10分钟搭建Stable Diffusion

    人工智能生成内容(Artificial Intelligence Generated Content,简称 AIGC)是当下最火的概念之一。AIGC 被认为是继专业生成内容(Professional Generated Content, PGC)和用户生成内容(User Generated Content, UGC)之后,利用人工智能技术自动生成内容的新型生产方式。 AI 生成内容的形式相当丰富

    2024年02月11日
    浏览(56)
  • 玩转stable-diffusion之xformers安装

    1、xformers是SD的加速模块,没有他可以继续运行,可以正常生成图片。只是xformers可以帮助提升图片的生成速度。 2、安装完SD后,启动出现xformers未安装的情况 可以单独pip 安装xformers模块,命令: 3、注意这里的版本,如果安装的版本不对,会卸载你的原安装正常的pytorch版本

    2024年02月06日
    浏览(43)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包