Stable Diffusion WebUI Ubuntu 22.04 LTS RTX2060 6G 极限显存出图

这篇具有很好参考价值的文章主要介绍了Stable Diffusion WebUI Ubuntu 22.04 LTS RTX2060 6G 极限显存出图。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

模型

Stable Diffusion WebUI Ubuntu 22.04 LTS RTX2060 6G 极限显存出图,stable diffusion,ai,stable diffusion,ai

Stable Diffusion WebUI Ubuntu 22.04 LTS RTX2060 6G 极限显存出图,stable diffusion,ai,stable diffusion,ai 

默认选中 

chilloutmix_Ni.safetensors,重启webui.sh进程

正向词

best quality, ultra high res, (photorealistic:1.4), 1girl,   <lora:koreanDollLikeness_v15:1> ,<lora:yaeMikoRealistic_yaemikoMixed:1>,

反向词

paintings, sketches, (worst quality:2),(low quality:2),(normal quality:2), lowres, normal quality, ((monochrome)), ((grayscale)), skin spots, acnes, skin blemishes, age spot, glans,{{{bad_hands}}},badhand, bad_feet,

其他

Stable Diffusion WebUI Ubuntu 22.04 LTS RTX2060 6G 极限显存出图,stable diffusion,ai,stable diffusion,ai

出图

 Stable Diffusion WebUI Ubuntu 22.04 LTS RTX2060 6G 极限显存出图,stable diffusion,ai,stable diffusion,ai

 显卡还能剩余不到200M。文章来源地址https://www.toymoban.com/news/detail-533726.html

到了这里,关于Stable Diffusion WebUI Ubuntu 22.04 LTS RTX2060 6G 极限显存出图的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • 【AI】RTX2060 6G Ubuntu 22.04.1 LTS (Jammy Jellyfish) 部署Chinese-LLaMA-Alpaca-2

    下载源码 创建venv 安装依赖 已安装依赖列表 下载编译llama.cpp 编译成功 创建软链接 下载模型 由于只有6G显存,只下载基础的对话模型chinese-alpaca-2-1.3b 浏览器打开地址:hfl/chinese-alpaca-2-1.3b at main 放到~/Downloads/ai 目录下 启动chat报错 继续折腾: 这两个文件需要手动在浏览器内

    2024年01月18日
    浏览(89)
  • 【AI】RTX2060 6G Ubuntu 22.04.1 LTS (Jammy Jellyfish) 部署chatglm2-6b 开源中英双语对话模型

    项目地址 chatglm2-6b 下载模型 创建测试项目 创建虚拟环境安装依赖 完整的venv环境 main.py 执行 python进程cpu使用率100.3%持续了很长时间,没有启用多线程?

    2024年01月20日
    浏览(50)
  • Stable Diffusion WebUI 汉化 Ubuntu 22.04平台

    当前状态  下载汉化扩展到extension目录  重启webui 在Extensions中,查看状态,已经列出来汉化扩展   点击Settings-User interface Localization中选择zh_CN,点击Apply settings 按钮,然后点击Reload UI  汉化成功  

    2024年02月12日
    浏览(51)
  • Ubuntu 22.04.2 LTS LTS x86_64 安装 stable-diffusion-webui 【2】基本版本完结。

    前篇 Ubuntu 20.04 LTS x86_64 安装 stable-diffusion-webui_hkNaruto的博客-CSDN博客 内容太多,分第二篇继续 中途重装了机器,20.04 ,apt upgrade后自动升级到22.04.2 现状:起来了,又没完全起来 启动日志 界面 获得阶段性成果了。 参考故障处理1. 下载资源,再次启动 成果启动,测试1girl看看

    2024年02月16日
    浏览(35)
  • 【AI】RTX2060 6G Ubuntu 22.04.1 LTS (Jammy Jellyfish) 部署Chinese-LLaMA-Alpaca-2 【2】启用GPU支持

    接上篇 【AI】RTX2060 6G Ubuntu 22.04.1 LTS (Jammy Jellyfish) 部署Chinese-LLaMA-Alpaca-2-CSDN博客 前面的实验,chat.sh确认是运行在CPU模式下,未启用GPU支持 重新编译llama.cpp 故障:nvcc fatal   : Value \\\'native\\\' is not defined for option \\\'gpu-architecture\\\' 查看gpu-arch 修改Makefile,调整MK_NVCCFLAGS差异如下  yeqia

    2024年01月23日
    浏览(42)
  • Linux Ubuntu22.04 安装stable diffusion webui(不借助科学上网的方式)

    背景/简介: 服务器不能翻墙,所以有了这个指南。主要是因为从github上把sd webui拉下来之后,中间过程会从外网上下载很多模型文件、其他github上的项目,需要绕开这部分操作。模型文件没有办法还是得科学上网下载到本地,再通过ftp上传到服务器来解决。 当然,可以的话

    2024年02月06日
    浏览(37)
  • Ubuntu 20.04 LTS x86_64 安装 stable-diffusion-webui

    Stability AI GitHub - Stability-AI/stablediffusion: High-Resolution Image Synthesis with Latent Diffusion Models https://github.com/AUTOMATIC1111/stable-diffusion-webui Ubuntu 20.04 LTS 安装 nvidia 驱动 + cuda 11.8 从开始到放弃!_hkNaruto的博客-CSDN博客 打开一个新终端,配置源  编辑~/.condarc 内容如下即可。 注意: 以下方

    2024年02月12日
    浏览(47)
  • Stable Diffusion WebUI rtx 2060 6G 高清修复 爆显存torch.cuda.OutOfMemoryError: CUDA out of memory.

    故障日志 零食解决办法,重启webui.sh进程,重新执行生成图片 日志   确实清晰不少 

    2024年02月04日
    浏览(49)
  • AI画图 Ubuntu 20.04.5 LTS x86_64 Docker stable diffusion webui 及 http api接口

    Docker镜像 参考地址: docker一键运行stable diffusion webui,常用插件和功能完备,获得镜像后可打包带走 - 哔哩哔哩 nvidia cuda 驱动 ​​​​​​​Linux x64 (AMD64/EM64T) Display Driver | 525.116.04 | Linux 64-bit | NVIDIA lora模型下载 热门Civitai LoRA模型下载第一批合集 Stable Diffusion WebUI - openAI 注

    2024年02月08日
    浏览(50)
  • ubuntu 22.04 安装 RTX 4090 显卡驱动

    1. 官网下载4090: 驱动程序 2. 关闭图形界面 对应的打开图形界面命令为: 3. tty登录之后 安装新版驱动: 如果报错,信息如下: ERROR: An NVIDIA kernel module \\\'nvidia-drm\\\' appears to already be loaded in your kernel.  This may be because it is in use (for example, by an X server, a CUDA program, or the NVIDIA      

    2024年02月05日
    浏览(72)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包