Stable Diffusion 开源模型 SDXL 1.0 发布

这篇具有很好参考价值的文章主要介绍了Stable Diffusion 开源模型 SDXL 1.0 发布。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

关于 SDXL 模型,之前写过两篇:

  • Stable Diffusion即将发布全新版本

  • Stable Diffusion XL 带来哪些新东西?

Stable Diffusion 开源模型 SDXL 1.0 发布,stable diffusion,人工智能

一晃四个月的时间过去了,Stability AI 团队终于发布了 SDXL 1.0。当然在这中间发布过几个中间版本,分别是 SDXL beta 和 SDXL 0.9。相较于 SDXL 0.9 的仅供研究的版本,这次的完整版本进步明显,是目前最好的开放图像生成模型。经过 Discord 上收集的实验数据,与其他开放模型相比,人们更喜欢 SDXL 1.0 生成的图像。

Stable Diffusion 开源模型 SDXL 1.0 发布,stable diffusion,人工智能

SDXL 可以生成几乎任何艺术风格的高质量图像,尤其擅长照片写实主义。SDXL 1.0 特别针对鲜艳而准确的色彩进行了精心调校,与之前的 Stable Diffusion 1.x 和 2.x 模型相比,具有更好的对比度和明暗表现。

此外,SDXL 可以生成图像模型难以渲染的概念,例如手和文本或空间排列的构图(例如,背景中的女人在前景中追逐狗)。

Stable Diffusion 开源模型 SDXL 1.0 发布,stable diffusion,人工智能

SDXL 只需要几句话就可以创建复杂、详细且美观的图像。用户不再需要调用“杰作”之类的限定词来获得高质量的图像。此外,SDXL 可以理解“红场”(著名的地方)与“红场”(形状)等概念之间的差异。

Stable Diffusion 开源模型 SDXL 1.0 发布,stable diffusion,人工智能

SDXL 1.0 是最大的开放图像模型,但对显存的要求并不高,在 8GB 显存的 GPU 上可以正常工作,覆盖了大多数消费级显卡和 GPU 云服务。

为了获得更加稳定的输出结果,我们通常借助 ControlNet,通过添加额外控制条件,来引导 Stable Diffusion 按照创作者的创作思路生成图像,从而提升 AI 图像生成的可控性和精度。目前还没有针对 SDXL 1.0 的 ControlNet 模型。好消息是,针对 SDXL 1.0 自定义数据微调模型比以往更加容易。Stability AI 团队正在构建下一代特定于任务的结构、风格和组合控件,其中 T2I / ControlNet 专门用于 SDXL,这些功能目前处于测试版预览阶段。

Stable Diffusion 开源模型 SDXL 1.0 发布,stable diffusion,人工智能

Stable Diffusion 开源模型 SDXL 1.0 发布,stable diffusion,人工智能

使用 SDXL

有多种方法可以开始使用 SDXL 1.0:

  • SDXL 1.0 已在 Clipdrop 上上线。网址:https://clipdrop.co/stable-diffusion

  • SDXL 1.0 的权重和相关源代码已在 Stability AI GitHub 页面上发布。网址:https://github.com/Stability-AI/generative-models

  • DreamStudio。网址:http://dreamstudio.ai/

如果要在本地部署,推荐使用 Stable Diffusion WebUI (https://github.com/AUTOMATIC1111/stable-diffusion-webui)。关于 WebUI 的部署,网上的资料多如牛毛,这里就不赘述。

前往 https://huggingface.co/stabilityai,可以看到 SDXL 1.0 的模型已经有了。

Stable Diffusion 开源模型 SDXL 1.0 发布,stable diffusion,人工智能

点击 Files and versions,下载 sd_xl_base_1.0.safetensors 文件即可。

Stable Diffusion 开源模型 SDXL 1.0 发布,stable diffusion,人工智能

将下载到的模型文件放到 WebUI 的 models/Stable-diffusion 目录下即可。在 Web 界面上刷新并选择新模型即可。

Stable Diffusion 开源模型 SDXL 1.0 发布,stable diffusion,人工智能

许可协议

可能会有人担心版权问题,这个不用担心,SDXL 1.0 根据 CreativeML OpenRAIL++-M 许可证发布。详细条款请参考:

https://github.com/Stability-AI/generative-models/blob/main/model_licenses/LICENSE-SDXL1.0

当然这份 license 读起来很是生涩。可以看看知乎上的解读:

https://zhuanlan.zhihu.com/p/626686691

涉及法律的条文,很难读,这里划重点:可商用,可以复制、使用和再分发文章来源地址https://www.toymoban.com/news/detail-617974.html

到了这里,关于Stable Diffusion 开源模型 SDXL 1.0 发布的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • stable-diffusion-webui sdxl模型代码分析

    采样器这块基本都是用的k-diffusion,模型用的是stability的原生项目generative-models中的sgm,这点和fooocus不同,fooocus底层依赖comfyui中的models,comfy是用load_state_dict的方式解析的,用的load_checkpoint_guess_config函数,这个函数webui中也有。 webui在paths中导入了generative-models,在sd_model_co

    2024年02月06日
    浏览(34)
  • stable diffusion实践操作-大模型介绍-SDXL1大模型

    大家移步下面链接中,里面详细介绍了stable diffusion的原理,操作等(本文只是下面系列文章的一个写作模板)。 stable diffusion实践操作 提示:写完文章后,目录可以自动生成,如何生成可参考右边的帮助文档 经过SDXL0.9和SDXL Beta的迭代,终于SDXL1.0正式版发布了! 之前使用A

    2024年02月09日
    浏览(35)
  • 新一代图像合成模型:Stable Diffusion XL(SDXL)上线!

    几个使用Stable Diffusion XL 1.0生成的图像示例。 新的SDXL 1.0发布允许在本地计算机上运行的高分辨率人工智能图像合成。 周三,Stability AI发布了其下一代开源权重人工智能图像合成模型Stable Diffusion XL 1.0(SDXL)。它可以根据文本描述生成新颖的图像,并生成比之前版本的Stable

    2024年02月11日
    浏览(32)
  • Stable Diffusion升级版SDXL,一键运行包和18G模型分享!

    今天主要分享两个东西,一个是ComfyUI软件包,一个是SDXL的两个模型。 有这两个东西就可以快速出图了 先来简单介绍一下SDXL的特点。 Stable Diffusion XL 或 SDXL 是最新的图像生成模型,与以前的 SD 模型(包括 SD 2.1)相比,它专为更逼真的输出而定制,具有更详细的图像和构图。

    2024年02月16日
    浏览(36)
  • Stable Diffusion - SDXL 模型测试 (DreamShaper 和 GuoFeng v4) 与全身图像参数配置

    欢迎关注我的CSDN:https://spike.blog.csdn.net/ 本文地址:https://spike.blog.csdn.net/article/details/132085757 图像来源于 SDXL 模型,艺术风格是赛博朋克、漫画、奇幻。 全身图像是指拍摄对象的整个身体都在画面中的照片,可以展示人物的姿态、服装、气质等特点,也可以表达一种情绪或故

    2024年02月14日
    浏览(25)
  • Stability AI推出Stable Diffusion XL 1.0,文本到图像模型

    Stability AI宣布推出Stable Diffusion XL 1.0,这是一个文本到图像的模型,该公司将其描述为迄今为止“最先进的”版本。 Stability AI表示,SDXL 1.0能生成更加鲜明准确的色彩,在对比度、光线和阴影方面做了增强,可生成100万像素的图像(1024×1024)。而且还支持在网页上直接对生成

    2024年02月15日
    浏览(34)
  • SDXL-Stable Diffusion改进版

    论文: 《SDXL: Improving Latent Diffusion Models for High-Resolution Image Synthesis》 github: https://github.com/Stability-AI/generative-models SDXL,用于文生图,与之前SD相比,SDXL使用3倍大的UNet backbone:归因于更多的attention block、更大的cross-attention。作者设计多种新颖条件机制,同时引入一个精细化

    2024年02月13日
    浏览(28)
  • Stable Diffusion XL(SDXL)原理详解

    😘关注公众号 funNLPer 畅读全文😘 技术报告:SDXL: Improving Latent Diffusion Models for High-Resolution Image Synthesis 官方代码:Stability-AI-generative-models 模型权重:HuggingFace-Stability AI 非官方代码:Linaqruf/kohya-trainer diffuser库:diffusers/pipelines/stable_diffusion_xl

    2024年02月10日
    浏览(36)
  • 重磅!Stable Diffusion 3 发布,AI模型百花争鸣!

    击上方关注 “ 终端研发部 ” 最近AI大变天! 刚火了Sora,又火了Gemma,这不stable diffusion又来了!大语言模型成了龙争虎斗的年代已开启~ Stable Diffusion 3到底是什么? 用官方的描述,3.0版本核心功能是多主题提示、图像质量和拼写能力。 比如给出提示词:厨房的桌子上放着一

    2024年03月13日
    浏览(48)
  • Stable Diffusion XL(SDXL)核心基础知识

    Stable Diffusion XL 或 SDXL 是最新的图像生成模型,与以前的 SD 模型(包括 SD 2.1)相比,它专为更逼真的输出而定制,具有更详细的图像和构图。与Stable DiffusionV1-v2相比,Stable Diffusion XL主要做了如下的优化: 对Stable Diffusion原先的U-Net,VAE,CLIP Text Encoder三大件都做了改进: U-N

    2024年02月01日
    浏览(32)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包