SDXL 1.0出图效果直逼Midjourney!手把手教你快速体验!

这篇具有很好参考价值的文章主要介绍了SDXL 1.0出图效果直逼Midjourney!手把手教你快速体验!。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

介绍

最近,Stability AI正式推出了全新的SDXL 1.0版本。经过我的实际测试,与之前的1.5版本相比,XL的效果有了巨大的提升,可以说是全方位的超越。不仅在理解提示词方面表现出色,而且图片的构图、颜色渲染和画面细腻程度都有了很大的进步,实际出图效果堪比Midjourney。此外,该版本还继续采用开源的形式发布,对于喜欢自定义生成图片的用户来说是一个极大的福音。

在 SD WebUI上 运行时还有一个额外的惊喜,就是它直接支持绘制不同风格的图片,如下图所示:

SDXL 1.0出图效果直逼Midjourney!手把手教你快速体验!

图片来源:https://stable-diffusion-art.com/sdxl-model/#Using_SDXL_style_selector

 

看到这里,我想一些大模型、Lora模型确实可以进入回收站了。

那么XL现在是怎么做的呢?相比之前的出图方式,SDXL采用了两步走的方法,先使用基本模型生成有噪声的潜在图,然后再使用精修模型进行降噪优化,官方给的处理示意图如下:

 

SDXL 1.0出图效果直逼Midjourney!手把手教你快速体验!

不过基本模型也是可以独立使用的。所以实际出图时也可以采用另一种方法,首先,使用基本模型生成所需输出大小的潜在图;然后通过图生图的方式,使用精修模型和相同的提示词,重绘第一步生成的潜在图,以优化出图效果。这种方法稍微慢一些,因为它要执行更多的处理。

实际使用时,需要注意以下几点:

  • 负面提示:与1.5、2.0版本相比,负面提示不再像之前那么必要了。许多常见的负面词汇是无用的,比如“Extra fingers”。
  • 关键词权重:对于SDXL模型来说,1.5版本的权重很高。如果你要复用1.5模型的提示,可能需要降低权重。减少权重的效果比增加权重更好。
  • 安全扩散:一定要使用safetensor版本的模型,它更安全,不会在你的机器上执行代码。
  • 精修强度:为了获得最佳输出效果,请使用低强度的refiner。
  • Refiner:为了得到更好的效果,请使用一张有噪声的图片来使用refiner。
  • 图像大小:SDXL模型的原生大小是1024×1024像素。虽然SDXL支持不同的宽高比,但图像质量对大小很敏感。以下是Stability AI官方图像生成器的尺寸,建议采用,如果需要更大尺寸的照片,可以再使用高清化放大。
    • 21:9 – 1536 x 640
    • 16:9 – 1344 x 768
    • 3:2 – 1216 x 832
    • 5:4 – 1152 x 896
    • 1:1 – 1024 x 1024
  • ControlNet:ControlNet现在只能在V1模型上工作,SDXL的支持还在开发中。

免安装体验

不用安装,还有N多的模型可以直接使用,不仅能使用SD XL,也可以继续使用SD 1.5;缺点是不能安装插件。

访问地址:https://www.liblibai.com/

进入后,点击页面右上角的“在线Stable Diffusion”即可进入。

SDXL 1.0出图效果直逼Midjourney!手把手教你快速体验!

按照下边的步骤操作即可。

SDXL 1.0出图效果直逼Midjourney!手把手教你快速体验!

注意第3步和第4步,这是和之前不一样的地方。

  • 需要勾选XL Refiner才有精修,大家可以对比下勾和不勾的效果。
  • 选择SDXL的模型后,宽度和高度默认变成 1024*1024。

分享下提示词:

提示词:street fashion photography, young female, pale skin, (look at viewer), sexy pose,(pink hair, white hair, blonde hair, long hair), ((high ponytail)),detailed skin, (detailed eyes:1.3), skin pores, (grin:1.1), skin texture, (Hunter green uniform, black skirt:1.4), long green sleeves,8k, real picture, intricate details, ultra-detailed,(photorealistic),film action shot, full body shot, in a shopping mall,realistic, extremely high quality RAW photograph, detailed background, intricate, warm lighting, high resolution,uhd, film grain, Fujifilm XT3

反向提示词:text, watermark, disfigured, kitsch, ugly, oversaturated, low-res, blurred, painting, illustration, drawing, sketch, low quality, long exposure, (cape:1.4), cartoon, 3d character

然后大家就可以愉快的生图了,每天300张。不过因为是共享的服务,高峰期可能等待的时间比较长。

云服务器体验

以 AutoDL 为例,我已经发布了一个支持 SDXL 的 Stable Diffusion WebUI 镜像,租用实例时选择“社区镜像”,输入:yinghuoai,就可以选择到这个镜像了。

没有AutoDL经验的同学,可以先看我这篇入门教程:https://mp.weixin.qq.com/s/dhklIMvkdtJygvlzUvU3xw

SDXL 1.0出图效果直逼Midjourney!手把手教你快速体验!

注意SDXL目前需要的内存资源比较高(可能是SD WebUI在内存缓存了很多数据的原因,单独跑SDXL Demo的时候没有消耗这么多的内存),建议选择内存在80G的主机,当然单价也会更高一些。后续我也会继续了解下如何降低它的内存和显存使用,如有兴趣请保持关注。

SDXL 1.0出图效果直逼Midjourney!手把手教你快速体验!

 

目前 SD WebUI 发布版本使用的是前文介绍的先“文生图”、再“图生图”的方法,虽然操作上啰嗦了一些,但测试出图比较稳定。操作方法如下图所示:

1、基础模型选择这个:sd_xl_base_1.0.safetensors

2、提示词随便写点就行。

3、宽度和高度注意手动调整到 1024*1024,实测512出图是卡通图,效果也不怎么样。

SDXL 1.0出图效果直逼Midjourney!手把手教你快速体验!

这个镜像自带了一个风格插件,用于实现 Stability AI 官方绘图产品中的绘图风格功能,使用这个插件,可以绘制不同风格的照片,看下边的选项很多,有3D、动漫、照片、数字、线画、插画、像素等很多风格。有了这个确实可以抛弃很多大模型和Lora模型了,所以说SDXL确实进步很大,建议大家试试。

SDXL 1.0出图效果直逼Midjourney!手把手教你快速体验!

出图之后我们可以在这里把图片发送到“图生图”:

SDXL 1.0出图效果直逼Midjourney!手把手教你快速体验!

提示词都会带过去,注意这里的基础模型要换成:“sd_xl_refiner_1.0.safetensors”。

SDXL 1.0出图效果直逼Midjourney!手把手教你快速体验!

重绘强度建议控制在:0.1-0.3,小了没效果,大了图片会变化过大。

SDXL 1.0出图效果直逼Midjourney!手把手教你快速体验!

别的参数不用动,然后就可以精修生图了。

不成熟的方法

大家也可以感受到上边的步骤比较啰嗦,所以 SD WebUI 也在开发一个新的方案,类似哩布哩布上的体验,不过目前还是开发版,我这里测试经常出现崩溃的问题,但是有人能够正常运行,所以这里简单给大家说下使用方法,有能力的可以去研究下。

1、下载这个开发版本:https://github.com/AUTOMATIC1111/stable-diffusion-webui/tree/refiner_alt

2、启动后在“设置”-“用户界面”中配置 refiner,如下图所示:

SDXL 1.0出图效果直逼Midjourney!手把手教你快速体验!

3、进入“文生图”或者“图生图”,在页面顶部可以看到多了两个选项:

Refiner checkpoint :选择SDXL的精修模型。

Refiner switch at:从采样步骤的第几步开始使用精修模型,这是个百分比。比如采样步数是30,这里选择0.8,那就是从 30*0.8=24 开始使用精修模型,在这之前的采样使用基础模型。

SDXL 1.0出图效果直逼Midjourney!手把手教你快速体验!

可以看到这个方案方便了不少,后续如果我测试没问题了,会将镜像升级到这个新版本。

本地部署体验

我这里没有合适的机器环境,所以没有实际部署,大家可以看这个项目:

https://github.com/vladmandic/automatic

它是从 AUTOMATIC1111/stable-diffusion-webui Fork 过来的,但是针对各种平台做了优化。

具体安装步骤可以参考这篇文章:https://stable-diffusion-art.com/sdxl-model/#Run_SDXL_model_with_SDNext

其它体验方式

Google Colab

这是 Github 上开源的一个 Stable Diffusion XL 1.0 的演示项目,可以在Google Colab上免费运行。如果只是想简单的体验下,访问外网也没有问题,可以试试。

大家打开我分享的这个链接就可以运行。

https://colab.research.google.com/drive/1bBD9VaSTuuw7Xkuw3FRkYCneTDxbnGar?usp=sharing

这里没有启用 Refiner,因为会消耗大量内存,免费规格根本跑不起来。

SDXL 1.0出图效果直逼Midjourney!手把手教你快速体验!

当出现下面这段文字的时候,就说明启动成功了。

SDXL 1.0出图效果直逼Midjourney!手把手教你快速体验!

点击上图中的这个 public URL,就可以在浏览器中操作了。

SDXL 1.0出图效果直逼Midjourney!手把手教你快速体验!

不过在使用免费规格时,出过一张图之后,再出图时会出现程序退出的问题,目测也是显存和内存不足导致的,XL需要的资源比较多。

此时可以重启程序,然后再跑下一张,不过也是挺麻烦的。

Kaggle

除了白嫖 Google Colab,我们还可以免费使用 Kaggle,Kaggle 比 Colab 好的是可以使用两个T4,一定程度上可以缓解内存不足的问题。Kaggle 每周可以免费使用30小时,不用的时候停机,停机不会计时。

具体使用方法不说了,网上已经有很多人介绍。

还是上边的 XL Demo 项目,我在Kaggle上也做了一个分享,大家打开下边这个链接:

https://www.kaggle.com/bosimabosima/stable-diffusion-x-1-0-demo

按照下边的步骤操作即可。

SDXL 1.0出图效果直逼Midjourney!手把手教你快速体验!

注意这里添加了一个参数:MULTI_GPU=true ,意思就是要使用多个CPU。实测确实可以降低系统内存的压力,连续生成多张图片也没有出现系统崩溃的问题,因为显存够用了就不会去占用系统内存,就不会因为内存无法分配而崩溃。

不过启用 Refiner 还是会导致无法分配的问题,这里 T4 GPU 的内存是 15G,两个就是30G,如果要想流畅的运行SD XL,需要更多内存或显存,这是免费规格提供不了的。

资源下载

如果你下载 SDXL 的大模型或者 StyleSelectorXL 插件不方便,可以通过我整理的资源下载,关/注/公/众\号:萤火遛AI(yinghuo6ai),发送消息:SDXL,即可获得下载地址。


以上就是本文的主要内容了,如有问题欢迎沟通交流。文章来源地址https://www.toymoban.com/news/detail-633232.html

到了这里,关于SDXL 1.0出图效果直逼Midjourney!手把手教你快速体验!的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • Midjourney教学使用教程,AI绘图赏析prompt,手把手教你Midjoureny注册和使用

    话不多说请先赏图: 目前 Midjourney 暂不支持免费次数了,尽量付费吧。 如果不清楚如何付费请参考:【保姆级】国内如何购买midjourney?midjourney购买教程?midjourney注册教程  1.写实: 提示词(prompt): a beautiful asian women ::2,red bow, christmas tree ::2 ,skirt,gifts ::1,christmas card,beaut

    2024年04月14日
    浏览(72)
  • 零基础手把手教你如何使用Laf免费玩转Midjourney后续之前端整合

    上篇讲述了 零基础手把手教你如何使用Laf免费玩转Midjourney,下面将讲解如何结合前端完成终极体验! 前端技术栈:vue + element plus 1.创建vue项目 这里使用vue脚手架创建项目,搭建项目步骤可参考官网  创建一个项目 | Vue CLI https://cli.vuejs.org/zh/guide/creating-a-project.html 2.安装el

    2024年02月09日
    浏览(41)
  • 手把手教 Vue3.2+Vite+Echarts 5 绘制3D线条效果中国地图

    本篇文章介绍 Vue3.2+Vite 项目内使用 Echarts 5 绘制中国地图,标记分布点!之前没有接触过 Echarts 的,可以先去官方示例看看,里面图形特别齐全。但是官方文档看着费劲的,太多了根本记不住,所以自己做个总结,下次就可以直接使用了,不用做重复无用功。 1、下载并引入

    2024年02月04日
    浏览(53)
  • 前端小程序,手把手教你从零开始做一个酷炫的扭蛋机十连抽动画效果

    其实没有做多复杂的效果,连 canvas 都没用上,都是一些简单的平面变换,不过一段看似复杂的动画往往都是几个简单的变换拼接而成,所以我们逐步拆解,很简单的就能得到一个扭蛋机十连抽效果。 语言环境 我这边使用的是 tailwindcss 和 ts,在 uniapp  + vue3 的情况下写的小

    2024年04月13日
    浏览(65)
  • 超写实虚拟数字人再升级:Wav2Lip-GFPGAN完整版教程及效果视频评测【手把手】

    在前面的一篇数字人文章中,我们介绍了AI主播虚拟人技术中的一项重要技术——Wav2Lip,并附上了完整版教程和效果评测,具体可见AI数字人虚拟主播技术实现Wav2Lip及效果演示评测【附完整版教程】。然而,我们也发现了一个问题,生成的视频中面部的画质相对模糊,缺乏细

    2024年02月16日
    浏览(55)
  • 手把手教你如何免费Midjourney Adobe FireFly AI绘图—Window本地快速部署stable diffusion AI绘图及使用指南(小白也能学会)

    最近看到朋友圈最近各种文字生图、图生图,眼花缭乱的图片AI生成,我也心动了,于是赶紧研究了下目前业内认为最强大的 Midjourney、Adobe FireFly ,本来想试用下,奈何全球人民太热情了, Midjourney 被薅羊毛薅的不行了,原本 Midjourney 刚注册可以免费玩25次,现在也被Midjour

    2024年02月04日
    浏览(65)
  • 手把手教学RRT*(RRTSTAR)三维算法MATLAB仿真(代码可直接运行,视频手把手教学)

            在我以前的作品里有关于RRT算法的视频和代码,今天主要讲解一下RRT*算法的原理。RRT*算法主要是在RRT算法的基础上加上了重写父节点和随机重连的两个步骤。具体的实现方式我想以视频的方式向大家讲解,个人感觉讲解的十分详细。视频连接在这里,希望大家看

    2024年04月17日
    浏览(50)
  • 【算法】手把手学会二分查找

    目录 简介 基本步骤 第一种二分 第二种二分  例题 搜索插入位置 数的范围 总结  🥥二分查找,又叫折半查找,通过找到数据二段性每次都能将原来的数据筛选掉一半,通过这个算法我们能够将一个一个查找的  O(n)  的时间复杂度优化到  O(logn)  ,极大地提升了查找的效率

    2023年04月08日
    浏览(44)
  • 手把手pip安装教程

    在Python中,pip是最常用的包管理工具之一。它可以用于安装、卸载和管理Python包。在本文中,我们将手把手教你如何安装pip,以便能够更方便地安装和管理Python包。 在安装pip之前,我们需要确认已经正确安装了Python,并确定其版本。在命令行中输入以下命令,确认Python版本:

    2024年02月11日
    浏览(63)
  • 【算法】手把手学会前缀和

    目录 前缀和 前缀和的好处 公式的推导 例题:前缀和 二维前缀和 推导公式  例题: 子矩阵的和 🎵前缀和算法可以理解为是一种 以空间换时间的方式 ,通过建立一个新的数组来 存储从头到当前位置的数据的总和 。 初始化数组  🎵前缀和数组的初始化就是将前  i  个数存

    2024年01月17日
    浏览(45)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包