Stable Diffusion 免费升级 SDXL 1.0,哪些新特性值得关注?体验如何?5 分钟带你体验!

这篇具有很好参考价值的文章主要介绍了Stable Diffusion 免费升级 SDXL 1.0,哪些新特性值得关注?体验如何?5 分钟带你体验!。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

一、引言

Stable Diffusion 免费升级 SDXL 1.0,哪些新特性值得关注?体验如何?5 分钟带你体验!,AI绘画,# Stable Diffusion,stable diffusion,人工智能,AI作画

7 月 26 日,Stability AI 发布了 SDXL 1.0,号称目前为止,最厉害的开放式图像生成大模型。

Stable Diffusion 免费升级 SDXL 1.0,哪些新特性值得关注?体验如何?5 分钟带你体验!,AI绘画,# Stable Diffusion,stable diffusion,人工智能,AI作画

它到底有没有网上说的那么炸裂?真的已经实现了像 midjourney 一样 靠嘴出图 的功能吗?相对于之前的版本,增加了哪些新特性?

今天体验了一把,一起来看看!

二、新特性

1、清晰的文字生成

大家都知道,目前的绘画工具,对于文字生成的支持,还不是特别成熟。虽然有一些工具已经可以生成文字了,但生成的总是不太能令人满意。而 SDXL 1.0 在文字生成方面,又向前迈了一步。

Stable Diffusion 免费升级 SDXL 1.0,哪些新特性值得关注?体验如何?5 分钟带你体验!,AI绘画,# Stable Diffusion,stable diffusion,人工智能,AI作画

比如通过短短一句提示词:a cute cat holds a paper with text "cool",professional photography,就可以生成一只拿着一张写着 “cool” 字样的小猫。

Stable Diffusion 免费升级 SDXL 1.0,哪些新特性值得关注?体验如何?5 分钟带你体验!,AI绘画,# Stable Diffusion,stable diffusion,人工智能,AI作画

2、更好的理解人体结构

以前的 Stable Diffusino 模型,在生成正确的人体结构方面,存在着明显的问题。比如经常生成多余或者残缺的四肢,以及极度畸形的脸等等。SDXL 1.0 在一定程度上解决了这个问题。

我们都知道,AI 不擅长画手,比如之前为了生成一个正常的手,会加很多的负向提示词、Embedding 或者使用 OpenPose 等插件,而在 SDXL 1.0 中,这些通通都不需要了,或者更确切地说,就算不用这些,生成的人物也比之前的版本也要好很多。

Stable Diffusion 免费升级 SDXL 1.0,哪些新特性值得关注?体验如何?5 分钟带你体验!,AI绘画,# Stable Diffusion,stable diffusion,人工智能,AI作画

3、自由度大幅提升

Stable Diffusion 免费升级 SDXL 1.0,哪些新特性值得关注?体验如何?5 分钟带你体验!,AI绘画,# Stable Diffusion,stable diffusion,人工智能,AI作画

在 SDXL 1.0 之前,如果想生成不同风格的图像,必须通过改变大模型或者下载相应的 LoRA 模型来实现,而在 SDXL 1.0 中,可以通过提示词在十余种风格间做无缝切换,包括动漫、摄影、数字插画等等。

4、更短的提示词

在提示词方面,咒语变得更短、更简单了,同时增强了对自然语言的理解,大大降低了我们写提示词的门槛。

  • 之前的提示词,是由一个个单词、词语、逗号等符号组成的词条化的描述,而在 SDXL 1.0 中,可以直接使用自然语言(比如一整个句子)来描述了。
  • 之前的提示词,在描述的时候,除了要写生成主体、场景、环境光线等提示词之外,还需要添加例如 masterpiece、best quality、highres 等画质提示词以及大量的负面提示词。而在 SDXL 1.0 中,这些质量提示词以及负面提示词,都不需要再写了。
  • 对一些概念的理解以及对环境氛围的还原更加到位了。对于概念的理解,官网给出了个例子:比如对于这两个概念 “The Red Square”(一个著名的景点)和 “red square”(一个形状),SDXL 1.0 已经可以区分他俩了。

Stable Diffusion 免费升级 SDXL 1.0,哪些新特性值得关注?体验如何?5 分钟带你体验!,AI绘画,# Stable Diffusion,stable diffusion,人工智能,AI作画

5、支持更大尺寸和精度的照片

有 Stable Diffusion 出图经验的朋友都知道,之前如果直接生成 1024 x 1024 或更高分辨率的大图,有可能会出现多人多头、肢体错位等的现象,需要使用高清修复或者 Tiled Diffusion 等其他方法才能达到。

而现在,可以直接出 1024 x 1024 或更高分辨率的大图了也不会有问题了。

6、色彩的鲜艳度和准确度

SDXL1.0 在色彩的鲜艳度和准确度上做了很大改进,相对于之前版本,在对比度、光线和阴影上较之前版本更加真实了。

Stable Diffusion 免费升级 SDXL 1.0,哪些新特性值得关注?体验如何?5 分钟带你体验!,AI绘画,# Stable Diffusion,stable diffusion,人工智能,AI作画Stable Diffusion 免费升级 SDXL 1.0,哪些新特性值得关注?体验如何?5 分钟带你体验!,AI绘画,# Stable Diffusion,stable diffusion,人工智能,AI作画

三、如何体验 SDXL 1.0

1、Liblib AI

如果仅仅是为了体验,推荐一个最简单快捷的在线方式:Liblib AI。

Liblib AI 在线出图,一天可以免费出图 300 张,基本满足大部分同学需求。

ps: Liblib AI 在线体验的缺点是,插件少,而且高峰期出图可能会卡。简单体验还是可以,要想深度体验,还是需要使用云部署 Stable Diffusion 或者本地部署 Stable Diffusion 的方式。

Liblib AI 体验步骤很简单,跟着操作,5 分钟搞定!

  1. 在 Liblib AI 中,点 “在线 Stable Diffusion”。

Stable Diffusion 免费升级 SDXL 1.0,哪些新特性值得关注?体验如何?5 分钟带你体验!,AI绘画,# Stable Diffusion,stable diffusion,人工智能,AI作画

  1. 模型选择带 “SDXL” 的模型,然后输入简单的提示词。

Stable Diffusion 免费升级 SDXL 1.0,哪些新特性值得关注?体验如何?5 分钟带你体验!,AI绘画,# Stable Diffusion,stable diffusion,人工智能,AI作画

  1. 参数设置。

Stable Diffusion 免费升级 SDXL 1.0,哪些新特性值得关注?体验如何?5 分钟带你体验!,AI绘画,# Stable Diffusion,stable diffusion,人工智能,AI作画

如果不知道哪个参数出图好,可以直接抄图上的。

采样方法:DPM++ 2M Karras(或其他)

采样步数:30

之前很多时候,我们一般会将采样步数设置成 20,但在 SDXL 中,如果将采样步数设置为 20,会让人感觉图片精细度不够。因此可以将采样步数适当调大一些。

分辨率:1024 x 1024 或其他分辨率。太低可能会影响出图质量。

其他参数:可以默认即可。

  1. 点“生成图片”。

一张使用 SDXL 1.0 生成的图片就出来了,是不是很简单!

2、本地部署

温馨提醒:需要先将本地的 Stable Diffusion WebUI 更新到 1.5.1。

如果之前本地没有部署过 Stable Diffusion WebUI,

Mac 电脑可以参考这篇:Mac 本地部署 Stable Diffusion(超详细,含踩坑点)

Windows 电脑:直接使用秋叶大佬的一键部署安装就可以了。

如果本地已经安装部署过 Stable Diffusion WebUI 了,直接下载下面的两个 SDXL 1.0 的模型,放在 SDW 的根目录/models/Stable-diffusion 目录下即可。

SDXL 1.0 base model 下载

SDXL 1.0 refiner model 下载

Stable Diffusion 免费升级 SDXL 1.0,哪些新特性值得关注?体验如何?5 分钟带你体验!,AI绘画,# Stable Diffusion,stable diffusion,人工智能,AI作画

这里大家可以发现 SDXL 1.0 有两个模型,一个 base model,一个 refiner model。在使用的时候,先通过 base model 生图,再选择 “发送到图生图”,用 refiner model 进行优化。

第二步使用 refiner model 进行优化的过程,其实相当于通过图生图进行低幅度的重绘来提高图片的画质(这里的重绘幅度不宜设置太高,比如 0.2、0.3 就 ok,也可以根据自己需求)。

当然也可以不进行第二步,只使用 base model 进行图像的生成。

出图方式及具体的参数设置,参照上面 Liblib AI 的方式,这里就不再赘述了。

3、官方提供的方式

Stability AI 官方也提供了几种体验方式:

Stable Diffusion 免费升级 SDXL 1.0,哪些新特性值得关注?体验如何?5 分钟带你体验!,AI绘画,# Stable Diffusion,stable diffusion,人工智能,AI作画

四、目前的问题

说了半天,SDXL 1.0 多么强大,难道就真的无懈可击了吗?当然不是!

1、一些旧模型、LoRA 模型以及 ControlNet 目前还不支持

比如大部分旧版的模型、LoRA 模型以及 ControlNet 等,用在 SDXL 1.0 上大部分都会失效,因为目前还不支持,需要重新更新才能适配 SDXL 1.0。

另外,SDXL 1.0 只是一个基础大模型,就好比之前的 SD 1.4、SD 1.5,而我们在日常绘画时,往往不会使用这些官方提供的基础模型,而是使用经过这些基础模型进行训练、微调、融合之后的特定模型。

比如我们想画二次元风格的图片,会选择 Cetus-Mix、Counterfeit、AbyssOrangeMix 等二次元风格的大模型,而不会使用官方的基础大模型。

Stable Diffusion 免费升级 SDXL 1.0,哪些新特性值得关注?体验如何?5 分钟带你体验!,AI绘画,# Stable Diffusion,stable diffusion,人工智能,AI作画

Stable Diffusion 免费升级 SDXL 1.0,哪些新特性值得关注?体验如何?5 分钟带你体验!,AI绘画,# Stable Diffusion,stable diffusion,人工智能,AI作画

Stable Diffusion 免费升级 SDXL 1.0,哪些新特性值得关注?体验如何?5 分钟带你体验!,AI绘画,# Stable Diffusion,stable diffusion,人工智能,AI作画

如果我们想画写实风格的图片,会选择 Deliberate、LOFI、Realistic Vision 等大模型,也不会使用官方的基础大模型。

Stable Diffusion 免费升级 SDXL 1.0,哪些新特性值得关注?体验如何?5 分钟带你体验!,AI绘画,# Stable Diffusion,stable diffusion,人工智能,AI作画

Stable Diffusion 免费升级 SDXL 1.0,哪些新特性值得关注?体验如何?5 分钟带你体验!,AI绘画,# Stable Diffusion,stable diffusion,人工智能,AI作画

Stable Diffusion 免费升级 SDXL 1.0,哪些新特性值得关注?体验如何?5 分钟带你体验!,AI绘画,# Stable Diffusion,stable diffusion,人工智能,AI作画

在 SDXL 问世之后,也会涌现出有很多基于 SDXL 训练、微调、融合而成的大模型。目前在 Liblib 等平台上,已经有基于 SDXL 训练的模型了,大家可以试用。而我们日后的绘图,大概率会使用这些基于基础大模型训练、微调、融合而成模型,而不是目前官方提供的 SDXL 的模型。

也就是说,SDXL 1.0 目前只是一个过渡期产品,感兴趣的尝尝鲜、提前了解一些知识还是可以的,但大规模的用于生产,可能还需要一些时间。

2、太耗显存

相对于之前的 Stable Diffusion 版本,明显更耗显存了。官方推荐在 8G 以上的显存显卡上或者云平台上运行。

Stable Diffusion 免费升级 SDXL 1.0,哪些新特性值得关注?体验如何?5 分钟带你体验!,AI绘画,# Stable Diffusion,stable diffusion,人工智能,AI作画

五、总结

SDXL 1.0 给我们带来最大的好处就是,基本可以实现 靠嘴出图了,使出图方式更加简单

新手小白可以在完全不了解复杂的提示词结构、LoRA、Embedding、扩展插件等知识的情况下,也可以使用自然语言轻松出图了,大大降低了使用门槛

后面肯定还会涌现出一批基于 SDXL 1.0 训练的大模型,到时候肯定会更加惊艳,一起期待一下吧!文章来源地址https://www.toymoban.com/news/detail-743970.html

到了这里,关于Stable Diffusion 免费升级 SDXL 1.0,哪些新特性值得关注?体验如何?5 分钟带你体验!的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • Stable Diffusion升级版SDXL,一键运行包和18G模型分享!

    今天主要分享两个东西,一个是ComfyUI软件包,一个是SDXL的两个模型。 有这两个东西就可以快速出图了 先来简单介绍一下SDXL的特点。 Stable Diffusion XL 或 SDXL 是最新的图像生成模型,与以前的 SD 模型(包括 SD 2.1)相比,它专为更逼真的输出而定制,具有更详细的图像和构图。

    2024年02月16日
    浏览(48)
  • OpenLayers9.1.0版本正式发布,OpenLayers9.1.0值得升级吗?9.1.0版相比9.0.0版本又更新了哪些内容?OpenLayers9相较于OpenLayers8更新了哪些内容?

    Vue+OpenLayers中文教程推荐,不同于OpenLayers官方文档使用html+js原生原生教程,博主专栏包含大量vue整合案例和实际开发案例,非常适合地图开发小白快速入门。 OpenLayers6教程 vue整合OpenLayers6入门教程: 《Vue+OpenLayers6入门教程》 vue整合OpenLayers6实战中文教程,包含大量OpenLayers官

    2024年04月23日
    浏览(38)
  • 视觉AIGC元年:技术大爆炸!Dalle-3、Sora、Stable Diffusion 3 掀起AIGC新浪潮,究竟有哪些模块值得借鉴!

            随着科技的飞速发展,我们迎来了视觉AIGC高光时刻,一个充满无限可能与机遇的新时代。在这个时代里, 三大里程碑Dalle-3、Sora和Stable Diffusion 3以其炸裂式的技术发展,引领着AIGC领域的新浪潮 。文章首先做相应简要介绍,后半部分着重做新兴技术拆解分析,看看

    2024年03月23日
    浏览(47)
  • Stable Diffusion XL(SDXL)原理详解

    😘关注公众号 funNLPer 畅读全文😘 技术报告:SDXL: Improving Latent Diffusion Models for High-Resolution Image Synthesis 官方代码:Stability-AI-generative-models 模型权重:HuggingFace-Stability AI 非官方代码:Linaqruf/kohya-trainer diffuser库:diffusers/pipelines/stable_diffusion_xl

    2024年02月10日
    浏览(49)
  • SDXL-Stable Diffusion改进版

    论文: 《SDXL: Improving Latent Diffusion Models for High-Resolution Image Synthesis》 github: https://github.com/Stability-AI/generative-models SDXL,用于文生图,与之前SD相比,SDXL使用3倍大的UNet backbone:归因于更多的attention block、更大的cross-attention。作者设计多种新颖条件机制,同时引入一个精细化

    2024年02月13日
    浏览(37)
  • Stable Diffusion XL(SDXL)核心基础知识

    Stable Diffusion XL 或 SDXL 是最新的图像生成模型,与以前的 SD 模型(包括 SD 2.1)相比,它专为更逼真的输出而定制,具有更详细的图像和构图。与Stable DiffusionV1-v2相比,Stable Diffusion XL主要做了如下的优化: 对Stable Diffusion原先的U-Net,VAE,CLIP Text Encoder三大件都做了改进: U-N

    2024年02月01日
    浏览(42)
  • stable-diffusion-webui sdxl模型代码分析

    采样器这块基本都是用的k-diffusion,模型用的是stability的原生项目generative-models中的sgm,这点和fooocus不同,fooocus底层依赖comfyui中的models,comfy是用load_state_dict的方式解析的,用的load_checkpoint_guess_config函数,这个函数webui中也有。 webui在paths中导入了generative-models,在sd_model_co

    2024年02月06日
    浏览(50)
  • Stable Diffusion - SDXL 模型测试与全身图像参数配置

    欢迎关注我的CSDN:https://spike.blog.csdn.net/ 本文地址:https://spike.blog.csdn.net/article/details/132085757 图像来源于 SDXL 模型,艺术风格是赛博朋克、漫画、奇幻。 全身图像是指拍摄对象的整个身体都在画面中的照片,可以展示人物的姿态、服装、气质等特点,也可以表达一种情绪或故

    2024年02月08日
    浏览(33)
  • AI绘画使用Stable Diffusion(SDXL)绘制玉雕风格的龙

    灵感来源于在逛 LibLib 时,看到的 Lib 原创者「熊叁gaikan」发布的「翠玉白菜 sdxl|玉雕风格」 的 Lora 模型。简直太好看了,一下子就被吸引了! 科普下「翠玉白菜」: 翠玉白菜是由翠玉所琢碾出白菜形状的清代文物,现藏台北故宫博物院。是台北故宫博物馆的镇馆三宝之一

    2024年02月03日
    浏览(45)
  • stable diffusion实践操作-大模型介绍-SDXL1大模型

    大家移步下面链接中,里面详细介绍了stable diffusion的原理,操作等(本文只是下面系列文章的一个写作模板)。 stable diffusion实践操作 提示:写完文章后,目录可以自动生成,如何生成可参考右边的帮助文档 经过SDXL0.9和SDXL Beta的迭代,终于SDXL1.0正式版发布了! 之前使用A

    2024年02月09日
    浏览(44)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包