〔003〕Stable Diffusion 之 界面参数和基础使用 篇

这篇具有很好参考价值的文章主要介绍了〔003〕Stable Diffusion 之 界面参数和基础使用 篇。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

▷ 界面参数

  • 在使用 Stable Diffusion 开源 AI 绘画之前,需要了解一下绘画的界面和一些参数的意义
  • 目前 AI 绘画对中文提示词的效果不好,尽量使用英文提示词
  • 最主要一些参数如下:
  • Prompt: 正向提示词,也就是 tag,提示词越多,AI 绘图结果会更加精准
  • Negative prompt: 反向提示词,也就是反向 tag
  • Width / Height:要生成的图片尺寸。尺寸越大,越耗性能,耗时越久。
  • CFG scale: AI 对描述参数 Prompt 的倾向程度。值越小生成的图片越偏离你的描述,但越符合逻辑;值越大则生成的图片越符合你的描述,但可能不符合逻辑。
  • Sampling method: 采样方法。有很多种,但只是采样算法上有差别,没有好坏之分,选用适合的即可。
  • Sampling steps: 采样步长。太小的话采样的随机性会很高,太大的话采样的效率会很低,拒绝概率高
  • Seed: 随机数种子。生成每张图片时的随机种子,这个种子是用来作为确定扩散初始状态的基础。不懂的话,用随机的即可
  • Restore faces: 面部修复,优化面部的,原理是调用一个神经网络模型对面部进行修复,影响面部。修复画面中人物的面部,但是非写实风格的人物开启面部修复可能导致面部崩坏
  • Tiling: 无缝贴图,是一种老牌优化技术,即 CUDA 的矩阵乘法优化,影响出图速度和降低显存消耗,不过实际选上之后可能连正常的图都不出来了。打死不开
  • Highres.fix: 高分辨率修复,默认情况下,文生图在高分辨率下会生成非常混沌的图像。如果使用高清修复,会型首先按照指定的尺寸生成一张图片,然后通过放大算法将图片分辨率扩大,以实现高清大图效果

〔003〕Stable Diffusion 之 界面参数和基础使用 篇,《全套 Stable Diffusion 教程》,stable diffusion,人工智能,ai绘画,文生图,图生图

▷ 采样器

  • Euler a: 是个插画,tag 利用率仅次于 DPM2DPM2 a,环境光效菜,构图有时奇葩
  • Euler: 柔和,也适合插画,环境细节与渲染好,背景模糊较深
  • Heun: 单次出土平均质量比 EulerEuler a 高,但速度最慢,高 step 表现好
  • DDIM: 适合宽画,速度偏低,高 step 表现较好,负面 tag 不够时发挥随意,环境光线与水汽效果好,写实不佳
  • DPM2: 该采样方式对 tag 的利用率最高,几乎占用 80% 以上
  • DPM2 a: 几乎与 DPM2 相同,只是在人物的时候可能有特写
  • PLMS: 单次出图质量仅次于 Heun
  • LMS: 质感 OA,饱和度与对比度偏低,更倾向于动画风格
  • LMS Karras: 会大改成优化的风格,写实不佳
  • DPM fast: 此为上界开发者所遗留的测试工具,不适合魔术师使用

〔003〕Stable Diffusion 之 界面参数和基础使用 篇,《全套 Stable Diffusion 教程》,stable diffusion,人工智能,ai绘画,文生图,图生图

▷ 文生图(txt2img)

  • 文生图(text2img): 根据提示词 Prompt 的描述生成相应的图片
  • 选择 绘画模型(Stable Diffusion checkpoint)文生图(txt2img)填写正向提示词(Prompt)填写反向提示词(Negative prompt)选择采样器(一般选择DPM++ 2M Karras)设置采样步骤(一般设置30)设置长宽(Width / Height,推荐 1024 * 1536)点击生成(Generate)
  • 根据上面的步骤,即可通过文字生成图片了,一般我们只要编写 Prompt 即可, Negative prompt 一般都是固定的,限制一下水印,低质量以及其他可能出现的逻辑错误即可

〔003〕Stable Diffusion 之 界面参数和基础使用 篇,《全套 Stable Diffusion 教程》,stable diffusion,人工智能,ai绘画,文生图,图生图

▷ 图生图(img2img)

  • 图生图(img2img): 将一张图片根据提示词 Prompt 描述的特点生成另一张新的图片
  • 选择 绘画模型(Stable Diffusion checkpoint)图生图(img2img)填写正向提示词(Prompt)填写反向提示词(Negative prompt)选择采样器(一般选择DPM++ 2M Karras)设置采样步骤(一般设置30)设置长宽(Width / Height,推荐 1024 * 1536)点击生成(Generate)
  • 将上传一张图片到图生图中,进行测试一下,这里使用的是刚刚文生图的照片,根据上面的步骤,点击生成,看看效果
  • 可以看出:AI 图生图,其实就是根据你上传的图片和你的 Prompt 生成一张跟上传差不多的照片

〔003〕Stable Diffusion 之 界面参数和基础使用 篇,《全套 Stable Diffusion 教程》,stable diffusion,人工智能,ai绘画,文生图,图生图

▷ 标签权重

  • 在输入 Prompt 标签的时候,有时候想到啥就会写啥,默认写在前面的权重会最高
  • stable Diffusion 中也可以通过特定符号提升关键词的权重
  • 其中 () 是加强权重,[] 是降低权重,{}NAI() 的“实现”,<> 用于嵌入
  • 例如:(eye) > [eye](eye:1.4) 会比正常情况多增加约 40%(eye:0.6) 会减少约 40 %
# 默认关键词是1.1倍
(eye) = (eye:1.1)
((eye)) = (eye:1.21)
(((eye))) = (eye:1.331)
((((eye)))) = (eye:1.4641)
(((((eye)))) = (eye:1.61051)
((((((eye)))))) = (eye:1.771561)
[eye] = (eye:0.9090909090909091)
[[eye]] = (eye:0.8264462809917355)
[[[eye]]] = (eye:0.7513148009015778)
[[[[eye]]]] = (eye:0.6830134553650707)
[[[[[eye]]]]] = (eye:0.6209213230591552)
[[[[[[eye]]]]]] = (eye:0.5644739300537775)

▷ 模型下载

  • 模型网站推荐:https://civitai.com/
  • 左上角的下拉框可以用来选择模型,其中 v1-5-pruned-emaonly.safetensors 是默认模型
  • 默认的模型画出来的图片比较丑,所以我们需要下载更好更适合的模型来绘画
  • 每个模型侧重绘画的风格不一样,有些适合画人,有些适合画动漫,有些适合画风景,根据自己的需求选择适合自己的绘画风格模型进行下载
  • 下载好模型,将模型文件放入到 models/Stable-diffusion 文件夹下,重载 UI,即可看到

〔003〕Stable Diffusion 之 界面参数和基础使用 篇,《全套 Stable Diffusion 教程》,stable diffusion,人工智能,ai绘画,文生图,图生图文章来源地址https://www.toymoban.com/news/detail-650941.html

到了这里,关于〔003〕Stable Diffusion 之 界面参数和基础使用 篇的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • 【深度学习 AIGC】stable diffusion webUI 使用过程,参数设置,教程,使用方法

    如果你想使用docker快速启动这个项目,你可以按下面这么操作(显卡支持CUDA11.8)。如果你不懂docker,请参考别的教程。 模型文件即checkpoint已包含了与vae相关的参数。然而,稳定扩散官方和novelai泄露的文件都包含了额外的vae,用于改进面部或其他细节。因此,加载vae文件实

    2024年02月05日
    浏览(53)
  • Stable Diffusion WebUI文生图操作界面基本参数说明!

    朋友们,大家好,我是王赞,正在学习研究Stable Diffusion,致力于用最为朴素直白的语言为你介绍AI绘画的相关知识。 很多朋友在部署好Stable Diffusion后,本来想着可以愉快的玩耍了,但是点开一看,密密麻麻的选项立马又劝退了一大批人。 别着急,今天这篇教程将会为你解决

    2024年02月13日
    浏览(40)
  • 探索stable-diffusion技术乐园:活学活用界面参数

    嗨!欢迎踏入我们充满有趣和创新的stable-diffusion技术乐园,让我们一起走进stable-diffusion界面参数的世界,看看怎样如行家袋里取物般自在地活用这些参数! 看了这么多大V、大卡和群粉们使用的英文,提起来有点沉,别急,我会尽量使用轻松的语气带你一起探索这些小秘密。

    2024年02月15日
    浏览(88)
  • 【喂饭级AI教程】手把手教你在本机安装Stable Diffusion秋包【附带全套资源】

    今天,我们将探索一个为Bilibili社区核心贡献者秋叶大佬所发布的神器——一款整合软件包。这款软件巧妙地简化了学习Python和网络知识这一通常漫长的过程。即使是编程新手,也能轻松入门并开始使用Stable Diffusion(简称SD),并且几乎不需要任何调整,就能体验到前沿的A

    2024年04月26日
    浏览(48)
  • Stable Diffusion webui 基础参数学习

    哈喽,各位小伙伴们大家好,最近一直再研究人工智能类的生产力,不得不说随着时代科技的进步让人工智能也得到了突破性的发展。而小编前段时间玩画画也是玩的不可自拔,你能想想得到,一个完全不会画画的有一天也能创作出绘画作品。 熟知小编教学的小伙伴都知道,

    2024年02月10日
    浏览(41)
  • 第三课-界面介绍SD-Stable Diffusion 教程

    我们已经安装好了SD,这篇文章不介绍难以理解的原理,说使用。以后再介绍原理。 我的想法是,先学会画,然后明白原理,再去提高技术。 我失败过,知道三天打鱼两天晒网的痛苦,和很多人一样试了安装 github 版本,生成了几张图,发现效果不太理想,就放着了。后来也

    2024年02月13日
    浏览(43)
  • Stable Diffusion 系列教程 - 2 WebUI 参数详解

    Stable Diffusion 的整个算法组合为: UNet + VAE + 文本编码器 UNet :就是我们大模型里的核心。 文本编码器 :将我们的prompt进行encoder为算法能理解的内容(可以理解为SD外包出去的项目CLIP)。 VAE :对UNet生成的图像作后处理。 上图中红框代表的是大模型,可以通过下拉的方式来

    2024年02月04日
    浏览(46)
  • InsCode Stable Diffusion使用教程(非常详细)从零基础入门到精通,看完这一篇就够了

    记录一下如何使用 InsCode Stable Diffusion 进行 AI 绘图以及使用感受。 目前市面上比较权威,并能用于工作中的 AI 绘画软件其实就两款。一个叫 Midjourney(简称 MJ),另一个叫 Stable Diffusion(简称 SD)。MJ 需要付费使用,而 SD 开源免费,但是上手难度和学习成本略大,并且非常吃

    2024年02月11日
    浏览(52)
  • 利用Stable diffusion Ai 制作艺术二维码超详细参数和教程

    大家有没有发现最近这段时间网上出现了各种各样的AI艺术二维码,这种二维码的出现,简直是对二维码的“颠覆式创新”,直接把传统的二维码提升了一个维度!作为设计师的我们怎么可以不会呢? 今天就教大家怎么制作这种超有艺术的二维码,硬是把二维码上升到了艺术

    2024年02月15日
    浏览(47)
  • InsCode Stable Diffusion使用教程(非常详细)从零基础入门到精通,看完这一篇就够了_outpainting 模型下载

    先自我介绍一下,小编浙江大学毕业,去过华为、字节跳动等大厂,目前阿里P7 深知大多数程序员,想要提升技能,往往是自己摸索成长,但自己不成体系的自学效果低效又漫长,而且极易碰到天花板技术停滞不前! 因此收集整理了一份《2024年最新HarmonyOS鸿蒙全套学习资料

    2024年04月17日
    浏览(54)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包