Stable Diffusion 让4090满血复活的方法 30+it/s

这篇具有很好参考价值的文章主要介绍了Stable Diffusion 让4090满血复活的方法 30+it/s。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

AI绘画的生成速度会受到以下因素的制约:torch版本、transformers版本、CUDA版本和cuDNN版本。

非40系显卡用户应使用最新的整合包以获得最佳速度。v3版整合包已经更新到torch 1.13.1、CUDA 11.7和transformers 0.016,所以无需再进行其他更改。

一个让 Stable Diffusion WebUI 满血复活的方法,生成图像速度最高30+it/s
Stable Diffusion 让4090满血复活的方法 30+it/s
40系显卡用户需要替换cuDNN来获得到满血速度。

NVIDIA 配置流程

打开NVIDIA设置显卡开发者模式,按照图中显示配置即可。
Stable Diffusion 让4090满血复活的方法 30+it/s
确认NVIDIA显卡系统信息,自己要记不住用个小本本记录一下 12.1.68 这串数字就可以了。
Stable Diffusion 让4090满血复活的方法 30+it/s
安装 cuda,点击 NVDIA官网下载,选择对应的版本。例如之前的显卡版本信息是 12.1.68 则选择 12.1.x 即可以此类推。
文章来源地址https://www.toymoban.com/news/detail-494628.html

到了这里,关于Stable Diffusion 让4090满血复活的方法 30+it/s的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • Stable-Diffusion-Webui: Talk about it briefly

    GitHub - AUTOMATIC1111/stable-diffusion-webui: Stable Diffusion web UI use Git to download: run   webui-user.bat  : git clone https://github.com/AUTOMATIC1111/stable-diffusion-webui.git https://github.com/AUTOMATIC1111/stable-diffusion-webui.git You can run it in command prompt: But I have python3.9 here, it remmond me to use python 3.10. I just try it.

    2024年02月09日
    浏览(32)
  • Stable Diffusion 30分钟打造AI 写真照片生成器|海马体照相馆这次真的要木得了

    这次,海马体照相馆可能真的要木得了!! 前有妙鸭相机这种付费傻瓜式的 AI 写真程序,后有 Stable Diffusion 定制属于自己的 Lora 模型的围攻。 但今天要分享的确实一个叫 EasyPhoto 的 AI 写真照片生成器! 免费,使用起来却非常简单。 EasyPhoto 是一款 Stable diffusion 插件,用于生

    2024年02月21日
    浏览(81)
  • 【AICG】关于解决配置stable-diffusion-webui时的问题:No module ‘xformers‘. Proceeding without it.

    关于这个问题,在stable-diffusion-webui/venv/Scripts目录下进入terminal,输入./activate激活stable diffusion创建的虚拟环境,然后使用: 就基本可以了,最后在webui-user.bat文件上右击,点击“编辑”,在set COMMANDLINE_ARGS=后面加上--xformers,保存,正常运行,就能使用xformers进行加速了

    2024年02月11日
    浏览(45)
  • NVDIA GPU参数列表: 3090,4090, A40, A30,V100, A100, A800性能参数

    GeForce RTX 4090    GeForce RTX 3090 Ti (左)   GeForce RTX 3090(右)   A40: The NVIDIA A40 accelerates the most demanding visual computing workloads from the data center, combining the latest NVIDIA Ampere architecture RT Cores, Tensor Cores, and CUDA® Cores with 48 GB of graphics memory. From powerful virtual workstations accessible from an

    2024年02月06日
    浏览(46)
  • Stable Diffusion使用方法

    SD的本地安装教程有很多我就不重复了,这里主要是记录我在使用SD Webui的过程中遇到的问题,总结的一些提升出图效率,出好图概率的经验。 先搞几张看看效果 二次元妹妹 + 高达 = ?         Ok,以上只是一小部分成品 ,属于是抛砖引玉之作。 我当时设置的参数出的图效

    2024年02月01日
    浏览(30)
  • stable diffusion其他微调方法

    textual inversion 发布时间:2022 目标:与DreamBooth一样,都是想要微调模型生成特定目标或风格的图像 方法:通过在vocabulary中添加一个额外的embedding来学习输入的新特征。预训练模型的所有参数都锁住,只有新的embedding被训练 DreamBooth与textual inversion区别 微调参数不同:前者微调

    2024年02月08日
    浏览(50)
  • Stable Diffusion中不同的采样方法

            在 Stable Diffusion 模型中,采样方法是从学习到的概率分布中生成图像的算法。采样方法影响生成图像的质量、样式、速度以及过程的控制程度。以下是一些采样方法的概述和它们对图像生成可能产生的影响: DPM++系列 DPM++ 2M / 3M : 这些是扩展的扩散概率模型,其中数

    2024年01月21日
    浏览(32)
  • 视频生成: 基于Stable Diffusion的微调方法

        chatGPT带来了几个月的AIGC热度,文本图像生成模型大行其道,但AI在视频生成任务上尚没有较好的开源仓库,并受限于“缺那么几百块A100\\\"的资源问题,大多数人无法展开视频生成的研究。好在目前有不少针对视频生成的相关paper,也有不少开源实现,事实上缺的是一个完

    2024年02月10日
    浏览(47)
  • Stable-diffusion WebUI API调用方法

    写这篇文章的主要原因是工作中需要写一个用训练好的模型批量生图的脚本,开始是想用python直接加载模型,但后来发现webui的界面中有很多用起来比较方便的插件和参数,最终改成调用WebUI接口的方式来批量生图。 Stable-diffusion的webui界面使用比较方便,但是它的api文档比较简

    2024年02月08日
    浏览(57)
  • Stable Diffusion控制人物脸部和手的方法

    “  目前Stable Diffusion在人体姿态控制方面已经取得了比较稳定的效果,但是在人脸和手部姿势的控制上还没有很好的解决,经常会出现崩手和崩脸的情况。 ” 01 — After Detailer解决崩脸的问题     After Detailer是sd的一个扩展,类似于Detection  Detailer,不同的是它用ultralytics代替

    2024年02月16日
    浏览(40)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包