Stable Diffusion - 墨幽人造人 模型与 Tag 配置

这篇具有很好参考价值的文章主要介绍了Stable Diffusion - 墨幽人造人 模型与 Tag 配置。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

欢迎关注我的CSDN:https://spike.blog.csdn.net/
本文地址:https://spike.blog.csdn.net/article/details/131565068

墨幽人造人模型的版本介绍:

  • v1010修剪:更小体积的4G修剪版,但是整体色彩及细节表现力、好手好脸概率均略逊于v1010的7G完整版。
  • v1010:真正的首个可以称之为人造人的“墨幽”。完全真正对墨幽进行了跨世代的全面升级。

下载链接:Stable Diffusion 模型网站 liblibAI,墨幽人造人。

具体配置:

推荐Tag: 
	- 提示词: 
  	- 正: 1girl,moyou, (在此基础上添加,无需添加任何质量词)
  	- 负: EasyNegativeV2,(badhandv4:1.2), (这是两个embedding嵌入式文件。无需额外添加任何负面质量提示词) (这两个embedding的排列顺序会明显影响最终画面,请一定按照此说明中的顺序排列!!!)

- 推荐参数:
	- VAE: 840000,即 vae-ft-mse-840000-ema-pruned.ckpt
  	- 采样: DDIM (新的人造人墨幽也更换了采样器哦,不要使用之前版本用的采样器啦!)
  	- 步数: 30~50 (常用30,50质量更高) (亲测继续提高步数仍会达到更好的质量,但变化很小)
  	- 高分辨率修复参数: (一定要开!)
    	- 放大算法: 8x_NMKD-Superscale_150000_G (可入鹅群自取)
    	- 重绘幅度: 0.2  
    	- 基础分辨率: 短边512
    	- 放大倍数: 2
  	- CFG: 7

版本号:v1010修剪,时间 2023.6.30

Stable Diffusion - 墨幽人造人 模型与 Tag 配置,大模型(LLM&AIGC),AIGC,stable diffusion

启动服务:

conda deactivate
source venv/bin/activate
nohup python -u launch.py --port 9301 --listen --xformers > nohup.sd.out &

1. 配置模型

模型类型是Checkpoint,即下载存储至 stable-diffusion-webui/models/Stable-diffusion

下载模型:

# 4G 修剪
wget https://liblibai-online.liblibai.com/web/model/dfab1a61233ef2812e6de35730449c330657961d3f0d9d51a5b057a17b80ab67.safetensors -O 墨幽人造人_v1010_修剪.safetensors  

# 7G 完整版
wget https://liblibai-online.liblibai.com/web/model/6a226dd292a983b3ed4987402453ad4d954b77825c1cf99d39d8746909791761.safetensors -O 墨幽人造人_v1010_完整版.safetensors  

具体配置:

Stable Diffusion - 墨幽人造人 模型与 Tag 配置,大模型(LLM&AIGC),AIGC,stable diffusion

2. 配置参数

模型文件检查器:https://spell.novelai.dev/

2.1 Embeddings

推荐 Tag 的负向提示词是 Embeddings 类型,存储位置 stable-diffusion-webui/embeddings

下载路径:

  • EasyNegative:https://huggingface.co/datasets/gsdf/EasyNegative、https://civitai.com/models/7808/easynegative,建议下载 EasyNegative.pt
  • badhandv4 - AnimeIllustDiffusion:https://civitai.com/models/16993/badhandv4-animeillustdiffusion,建议下载 badhandv4.pt

点击:

Stable Diffusion - 墨幽人造人 模型与 Tag 配置,大模型(LLM&AIGC),AIGC,stable diffusion

Textual Inversion (文本反转) 中,即可使用。

配置参数,注意 Used embeddings,表示使用EasyNegativebadhandv4

1girl,moyou,
Negative prompt: EasyNegative,(badhandv4:1.2),
Steps: 50, Sampler: DDIM, CFG scale: 7, Seed: 841743923, Size: 512x768, Model hash: 6a226dd292, Model: 墨幽人造人_v1010_完整版, Denoising strength: 0.2, Hires upscale: 2, Hires upscaler: 8x_NMKD-Superscale_150000_G, Version: v1.4.0

Used embeddings: EasyNegative [119b], badhandv4 [dba1]
Time taken: 17.53sTorch active/reserved: 5345/8764 MiB, Sys VRAM: 10262/81070 MiB (12.66%)

2.2 VAE

VAE 默认没有出现 WebUI 中,需要手动配置。Settings - User interface - Quicksettings list.

Stable Diffusion - 墨幽人造人 模型与 Tag 配置,大模型(LLM&AIGC),AIGC,stable diffusion

再点击 Apply settings ,重启服务即可生效:

Stable Diffusion - 墨幽人造人 模型与 Tag 配置,大模型(LLM&AIGC),AIGC,stable diffusion

重启服务即可,在 WebUI 中,增加两个框,即 Add Lora to promptSD VAE

Stable Diffusion - 墨幽人造人 模型与 Tag 配置,大模型(LLM&AIGC),AIGC,stable diffusion

下载路径:vae-ft-mse-840000-ema-pruned:https://civitai.com/models/76118/vae-ft-mse-840000-ema-pruned

模型存储至:stable-diffusion-webui/models/VAE,刷新,即可应用。

关于 sd_vaesd_vae_as_default,即 sd_vae 是配合主模型使用:

  • “sd_vae”: OptionInfo(“Automatic”, “SD VAE”, gr.Dropdown, lambda: {“choices”: shared_items.sd_vae_items()}, refresh=shared_items.refresh_vae_list).info(“choose VAE model: Automatic = use one with same filename as checkpoint; None = use VAE from checkpoint”),
  • “sd_vae_as_default”: OptionInfo(True, “Ignore selected VAE for stable diffusion checkpoints that have their own .vae.pt next to them”)

使用 VAE 模型的主要作用是修饰细节。例如,左侧是使用VAE,右侧是未使用VAE的效果:

Stable Diffusion - 墨幽人造人 模型与 Tag 配置,大模型(LLM&AIGC),AIGC,stable diffusion

2.3 Upscaler

放大算法:8x_NMKD-Superscale_150000_G

下载地址:

  • 包括全部的放大算法:https://huggingface.co/uwg/upscaler/tree/main
  • 8x_NMKD-Superscale_150000_G:https://huggingface.co/uwg/upscaler/blob/main/ESRGAN/8x_NMKD-Superscale_150000_G.pth,67M

放入文件夹:stable-diffusion-webui/models/ESRGAN

需要重启 WebUI,才能在列表中生效,可以选用。

3. 绘图示例

Prompt:

1girl,moyou,fullbody
Negative prompt: EasyNegative,(badhandv4:1.2),
Steps: 50, Sampler: DDIM, CFG scale: 7, Seed: 3940251232, Face restoration: CodeFormer, Size: 512x768, Model hash: 6a226dd292, Model: 墨幽人造人_v1010_完整版, Denoising strength: 0.2, Hires upscale: 2, Hires upscaler: 8x_NMKD-Superscale_150000_G, Version: v1.4.0

Saved: 00030-3940251232.png

图像:

Stable Diffusion - 墨幽人造人 模型与 Tag 配置,大模型(LLM&AIGC),AIGC,stable diffusion

参考:文章来源地址https://www.toymoban.com/news/detail-541892.html

  • 知乎 - stable diffusion里用到的模型(ckpt文件)是啥?
  • 探索【Stable-Diffusion WEBUI】的附加功能:图片缩放&抠图
  • 百度贴吧 - 大佬请教,为啥没有VAE模型的工具栏呢
  • Bilibili - (紧急)下载下来的模型怎么用?分别放哪里?是什么类型?分享个小工具一招解决!
  • Stable Diffusion用embedding模型避免画崩

到了这里,关于Stable Diffusion - 墨幽人造人 模型与 Tag 配置的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • Stable Diffusion - Stable Diffusion WebUI 支持 SDXL 1.0 模型的环境配置

    欢迎关注我的CSDN:https://spike.blog.csdn.net/ 本文地址:https://spike.blog.csdn.net/article/details/132056980 SDXL 1.0 版本 是 Stable Diffusion 的最新版本,是基于潜在扩散模型的文本到图像生成技术,能够根据输入的任何文本生成高分辨率、高质量、高多样性的图像,具有以下特点: 更好的成

    2024年02月14日
    浏览(49)
  • stable diffusion webui 自动补全 Tag 的插件 Tagcomplete

    本脚本为 AUTOMATIC1111 web UI 的自定义脚本,能在输入 Tag 时提供 booru 风格(如 Danbooru )的 TAG 自动补全。因为有一些模型是基于这种 TAG 风格训练的(例如 Waifu Diffusion ),因此使用这些 Tag 能获得较为精确的效果。 这个脚本的创建是为了减少因复制 Tag 在 Web UI 和 booru 网站的反

    2024年02月09日
    浏览(41)
  • 微软 & CMU - Tag-LLM:将通用大语言模型改用于专业领域

    🍉 CSDN 叶庭云 : https://yetingyun.blog.csdn.net/ 论文地址:https://arxiv.org/abs/2402.05140 Github 地址:https://github.com/sjunhongshen/Tag-LLM 大语言模型(Large Language Models,LLMs)在理解和生成自然语言方面展现出卓越的能力。然而,在预训练语料库中代表性不足的高度专业领域,例如物理和生

    2024年02月20日
    浏览(42)
  • Stable Diffusion - SDXL 模型测试与全身图像参数配置

    欢迎关注我的CSDN:https://spike.blog.csdn.net/ 本文地址:https://spike.blog.csdn.net/article/details/132085757 图像来源于 SDXL 模型,艺术风格是赛博朋克、漫画、奇幻。 全身图像是指拍摄对象的整个身体都在画面中的照片,可以展示人物的姿态、服装、气质等特点,也可以表达一种情绪或故

    2024年02月08日
    浏览(34)
  • Stable Diffusion云端部署只需三步, 不吃电脑配置, 模型快速部署

    牙叔教程 简单易懂 我是小白, 小白跟我一步一步做就可以了, 鼠标点两下就OK了, 学点新东西, 好吗? 不想学的就走吧, 离我远点. Stable diffusion是一个基于Latent Diffusion Models(潜在扩散模型,LDMs)的文图生成(text-to-image)模型。具体来说,得益于Stability AI的计算资源支持和LAIO

    2024年02月08日
    浏览(63)
  • Stable Diffusion WebUI使用python调用WD 1.4标签器(tagger),获取并处理标签tag权重

    Stable Diffusion为秋叶大佬的绘世2.2.4 webUI api后台:http://127.0.0.1:7860/docs

    2024年02月12日
    浏览(39)
  • Stable Diffusion - SDXL 模型测试 (DreamShaper 和 GuoFeng v4) 与全身图像参数配置

    欢迎关注我的CSDN:https://spike.blog.csdn.net/ 本文地址:https://spike.blog.csdn.net/article/details/132085757 图像来源于 SDXL 模型,艺术风格是赛博朋克、漫画、奇幻。 全身图像是指拍摄对象的整个身体都在画面中的照片,可以展示人物的姿态、服装、气质等特点,也可以表达一种情绪或故

    2024年02月14日
    浏览(38)
  • 【AI绘图 丨 Stable_diffusion 系列教程三】— 无需配置环境 | Colab直接运行Stable Diffusion web UI并从civitai中导入lora模型

    目录 一、Google Colab的基本介绍 二、Google Colab 的使用  2.1 利用Google 浏览器搜索Google drive  2.2 注册一个Google 账号,点击转至账号登录  ​ 2.3 进入Google drive,点击转至Google 云端硬盘 2.4 创建一个新的Google Colaboratory 2.5 Google Colaboratory基本操作方法。 基本操作1:修改文件名、

    2024年02月09日
    浏览(49)
  • GPT-4问世;LLM训练指南;纯浏览器跑Stable Diffusion

    1. 多模态 GPT-4正式发布:支持图像和文本输入,效果超越ChatGPT OpenAI的里程碑之作GPT-4终于发布,这是一个多模态大模型(接受图像和文本输入,生成文本)。主要能力有: GPT-4可以更准确地解决难题,具有更广泛的常识和解决问题的能力:更具创造性和协作性;可以接受图像

    2024年02月01日
    浏览(42)
  • 【超详细教程】无需配置环境 | colab直接运行Stable Diffusion web UI并从civitai中导入lora模型

    stable diffusion web ui地址 https://github.com/AUTOMATIC1111/stable-diffusion-webui 在项目readme里面找到Installation and Running,可以用colab在线使用,无需配置环境**(前提是可以连上Google)** 点击List of Online Services 跳转到有多种不同人维护的colab在线仓库 地址给到下面 这里我们选择第二个maint

    2023年04月09日
    浏览(47)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包