AI绘画之二_StableDiffusion_下载模型

这篇具有很好参考价值的文章主要介绍了AI绘画之二_StableDiffusion_下载模型。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

本文将介绍 Stable Diffusion 使用的主要模型及其用法。

1 模型下载

Stable Diffusion (简称SD) 模型主要从 Huggingface, github, Civitai 下载。
Huggingface:主要提供主流 AI 绘画模型下载。
github:也有一些小模型放在 github 下供下载使用。
Civitai:AI艺术共享平台,可下载海量SD开源模型(推荐)。

2 模型类别

SD 支持不同类型的模型,比如:基础模型,Lora,ControlNet,VAE,CLIP等。模型扩展名一般为ckpt,safetensors,pt,pth等。下面介绍几种最重要的模型。

3 基础模型

3.1 介绍

基础模型一般包含完整的 TextEncoder、U-Net、VAE。
模型大小一般为2-8G,真实风格模型相对2D风格模型更大。
目前最新的模型是 SDXL 1.0(约占8G显存),最常用的模型是 SD 1.5(约占4G显存)。
需要手工下载后,复制到 models/Stable-diffusion/ 目录下,才可识别和使用。

3.2 推荐

  • v1-5-pruned-emaonly:默认模型,偏真实风格,可从 huggingface 下载
  • bluePencilXL_v010.safetensors:最新版 SDXL 1.0 模型
  • anythingV3_fp16.ckpt:2D 动画风格
  • Counterfeit:接近真实场景的二次元风格(2.5D),氛围感很好,老式动慢风格

4 Lora模型

4.1 介绍

Lora是一种较小的绘画模型,一般体积在几十到几百兆左右。它是对大模型的微调。生成图片时只能选择一个大模型,但可选择多个Lora。

Lora解决的问题是:单个模型难以覆盖不同风格,而基础模型又太大,普通设备无法训练,Lora可分别针对:主体,风格,动作训练增补模型,与基础模型配合使用,以改进具体功能。

Lora只需要少量的数据就可以训练(如几十张标注的相片),比训练大模型要简单很多,用户可以用自己的数据训练Lora,也可在 Civitai 进行下载,下载后放到 SD的 models/Lora/ 目录下即可使用。

4.2 推荐

  • Detail Tweaker LoRA:增强/减少细节,保持整体风格/人物; 可结合各种基础模型(包括动画和现实模型)。
  • GHIBLI_Background:吉卜力风格(类似宫崎骏动画风格),治愈系画风的建筑和景观(背景)。

5 VAE模型

5.1 介绍

VAE是变分自编码器,负责将潜空间的数据转换为正常图像。
在SD中切换 VAE,可看作切换滤镜,它在生成图片过程中配合主模型使用,起到调色和微调的作用,比如有些模型色调不够清晰明亮,可考虑加 VAE 一起使用。
切换模型时,对应的VAE有时会自动下载;手动下载VAE模型,需要复制到 models/VAE/ 目录下,然后在 WebUI 界面上设置:Setting选项卡->左边选 Stable Diffusion->SD VAE

5.2 推荐

mse-840000:通用 VAE
ClearVAE:动漫 VAE

6 ControlNet模型

6.1 介绍

AI 绘图的主要问题是画面不可控,只能通过多次尝试,再筛选的方式出图,很难达到可预期的稳定输出,ControlNet 主要解决这一问题。其主原理是:利用额外网络对基础模型做微调。

ControlNet可以提取图片的线稿、人的资态、风景等难以用 prompt 描述的元素。在生成图片时叠加各种效果,比如给图A中的人设置图B中的姿式。它包括预处理和叠加模型,预处理是从图片A中提取行为,叠加模型将该行为应用到图片B的生成中。相对于图生图,ControlNet 提供的信息更为纯粹。

具体原理见论文 2023年2月 :https://arxiv.org/abs/2302.05543,

6.2 安装

  • 安装 ControlNet 插件(目前星最高的插件):
    WebUI界面->Extension 选项卡->Available选项卡->Load from按钮->Order选按Star排序->安装 sd-webui-controlnet 插件,正常安装后在 Installed选项卡中可以看到
  • 下载模型
    预处理器会自动从 HuggingFace 下载;模型需要另外安装,模型下载地址:
    https://huggingface.co/lllyasviel/ControlNet/tree/main/models
    目前有8个模型可供下载,每个模型大小都在5G左右,和之前相比做了一些合并。

6.3 主要功能

  • 资态约束:Openpose(可根据参考图设置:表情,手指、身体资态)
  • 空间深度约束:Depth(对空间场景深度的还原,含人体)
  • 抽取线条和还原:Canny 用于还原外型特征;SOFTEDGE/HED 整体边缘检测,识别大概轮廓;比CANNY约束小;SCIBBLE 涂鸦,比SOFTEDGE更自由,可根据简单涂鸦生成图片(注意:画线稿时不要加阴影,如果使用白底黑线,需要用 invert 预处理器)
  • 物品类形约束:Seg
  • 风格约束:Normal

6.4 使用方法

  • 上传图片
    • 在界面左下点开 ControlNet 折叠界面
    • 上传待参考的图片(如上传一张线稿)
  • 选择模型
    • 选择类型 Control Type,比如 canny,选中后列出该类别对应的所有可用的预处理和模型
    • 选预处理 Preprocess,比如 canny,预处理器将从图片中读取信息;然后点右边的爆炸图标,可预览其处理效果。
    • 选择 ControlNet 模型,比如 control_sd15_canny,用于生成图像。
  • 设置参数
    • 注意一定要勾选 Enable,否则 ControlNet 不起作用。
  • 生成图
    • 点击右上角的生成按钮生成图像

6.5 注意

  • 测试 ControlNet 效果时,需要固定 Seed,以保证每次生成的基础图是一样的
  • 第一次使用涂鸦功能时,可尝试xdog模式,它的效果更好

7 其它模型

其它模型,比如恢复面部细节的 CodeFormer,利用图片生成提示词的 CLIP & DeepBooru,一般第一次使用时都会自动下载模型到 models 的对应子目录中,需要耐心等待。如果下载不成功,请根据后台提示下载文件,然后复制到对应目录。

8 注意事项

  • 如果想真正把SD应用起来,一定要使用 Lora和ControlNet,Lora负责指定具体的主体和场景,ControlNet负责更好地控制画面。
  • 基础模型需要与其上的 VAE,Lora 版本一致,否则无法使用
  • 基础模型与其上的 VAE,Lora 风格尽量(动画/真实)一致
  • 使用 ControlNet 时被修改的图片和参考图片最好风格一致,动画人物和真人比例不一致可能造成问题

9 参考

SDXL模型b站视频
耗时7天,终于把15种ControlNet模型搞明白了!
Stable Diffusion进阶教程!超详细的 ControlNet 实用入门指南文章来源地址https://www.toymoban.com/news/detail-713731.html

到了这里,关于AI绘画之二_StableDiffusion_下载模型的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • AI绘画:StableDiffusion实操教程-斗破苍穹-云韵-婚服(附高清图下载)

    大家好,我是小梦,最近一直研究AI绘画。 不久前,我与大家分享了StableDiffusion的全面教程:“AI绘画:Stable Diffusion 终极宝典:从入门到精通 ” 然而,仍有些读者提出,虽然他们已经成功地安装了此工具,但生成的作品与我展示的相差较大。那么,如何缩小这之间的质感差

    2024年02月07日
    浏览(54)
  • AI绘画:StableDiffusion实操教程-斗罗大陆-朱竹清(附高清图下载)

    大家好,我是小梦,最近一直研究AI绘画。 不久前,我与大家分享了StableDiffusion的全面教程 然而,仍有些读者提出,虽然他们已经成功地安装了此工具,但生成的作品与我展示的相差较大。那么,如何缩小这之间的质感差距呢? 关键在于选择合适的大模型和利用专用的lora包

    2024年02月08日
    浏览(33)
  • AI 作画:Stable Diffusion 模型原理与实践

    本文首先简单介绍 Stable Diffusion 模型结构 Latent Diffusion 的论文和博客,然后介绍模型的训练和推理技术细节(不含数学推导),接着介绍几个 prompt 搜索引擎等实用工具,最后简单介绍 AI 作画(图像生成)的发展史,并测试了 Stable Diffusion 不同风格和 prompt 的生成样例。 Mod

    2024年02月10日
    浏览(41)
  • AI绘画:StableDiffusion实操教程-斗罗大陆2-江楠楠-常服(附高清图下载)

    前段时间我分享了StableDiffusion的非常完整的教程:“AI绘画:Stable Diffusion 终极宝典:从入门到精通 ” 尽管如此,还有读者反馈说,尽管已经成功安装,但生成的图片与我展示的结果相去甚远。真实感和质感之间的差距到底在哪里? 关键之处在于使用正确的大模型model和专用

    2024年02月09日
    浏览(39)
  • AI绘画美女:StableDiffusion实操教程-完美世界-国漫女神云曦(附高清图下载)

    前段时间分享过StableDiffusion的入门到精通教程:AI绘画:Stable Diffusion 终极宝典:从入门到精通 但是还有人就问:安装是安装好了,可是为什么生成的图片和你生成的图片差距那么远呢? 怎么真实感和质感一个天一个地呢? 其实很关键的因素,就是别人用了对的对应大模型

    2024年02月04日
    浏览(156)
  • AI绘画StableDiffusion美女实操教程:斗破苍穹-小医仙-天毒女(附高清图下载)

    小医仙,是天蚕土豆所著玄幻小说《斗破苍穹》([1])及其衍生作品中的角色,身负厄难毒体,食毒修炼,万毒不侵,通体毒气。这种会无意识地杀死别人的体质让天性善良的小医仙成为人憎鬼厌的天毒女,在萧炎多次帮助下得以控制。 出图效果展示: 今天我们就来一波实操,

    2024年01月16日
    浏览(25)
  • AI绘画stablediffusion comfyui SDXL Controlnet模型终于全了 tile来了

    以前一直在直播中吐槽说不建议大家用SDXL生态,即便已经出来了Turbo,即便除了SDXLLighting等等周边但是我们最最喜欢用的controlnet还是补全,即便是现在也不算完全意义的全,但是最起码我们今天呢能够带来第一个期待已久的tile模型,和隐藏款的QRmonsterXL(小声使用,别人还不

    2024年04月25日
    浏览(102)
  • SD/StableDiffusion模型,ai绘画部署教程,谷歌云端零成本部署,支持中文

    众所周知StableDiffusion这款开源软件对电脑硬件要求非常高,因此我们普通人想体验如今最火的AI绘画软件的话,用这种谷歌colab的方式是最好的方式了,接下来跟着我一块来体验一下如何使用吧。 1、一个谷歌账号 2、github上一个开源项目 本教程使用谷歌colab来云端部署的,就

    2024年02月13日
    浏览(50)
  • 使用Amazon SageMaker构建高质量AI作画模型Stable Diffusion

    近来,随着新一代 AI 大型聊天机器人 ChatGPT 火遍科技圈,人工智能生成内容( Artificial Intelligence Generated Content , AIGC )这一领域开始受到学术界、工业界甚至普通用户的广泛关注。 AIGC 凭借其独特的“创造力”与人类无法企及的创作生成速度掀起了一股人工智能狂潮。但是,利

    2023年04月14日
    浏览(50)
  • AI作画,国风油画风随心定制~ Stable Diffusion模型使用,三步就上手

    最近, AIGC (即 AI Generated Content ,是指利用人工智能技术来生成内容)真的是火出了天际。除了被挤到服务器满负荷的 chatGPT ,另一个也颇受瞩目的领域当属 AI 作画了。利用开源的一类“扩散( diffusion )”模型,你可以随时用AI进行绘画创作。除了常见的网页版注册-输入文

    2023年04月09日
    浏览(35)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包