〔AI 绘画〕Stable Diffusion 之 界面参数和基础使用 篇

这篇具有很好参考价值的文章主要介绍了〔AI 绘画〕Stable Diffusion 之 界面参数和基础使用 篇。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

▷ 界面参数

  • 在使用 Stable Diffusion 开源 AI 绘画之前,需要了解一下绘画的界面和一些参数的意义
  • 目前 AI 绘画对中文提示词的效果不好,尽量使用英文提示词
  • 最主要一些参数如下:
  • Prompt: 正向提示词,也就是 tag,提示词越多,AI 绘图结果会更加精准
  • Negative prompt: 反向提示词,也就是反向 tag
  • Width / Height:要生成的图片尺寸。尺寸越大,越耗性能,耗时越久。
  • CFG scale: AI 对描述参数 Prompt 的倾向程度。值越小生成的图片越偏离你的描述,但越符合逻辑;值越大则生成的图片越符合你的描述,但可能不符合逻辑。
  • Sampling method: 采样方法。有很多种,但只是采样算法上有差别,没有好坏之分,选用适合的即可。
  • Sampling steps: 采样步长。太小的话采样的随机性会很高,太大的话采样的效率会很低,拒绝概率高
  • Seed: 随机数种子。生成每张图片时的随机种子,这个种子是用来作为确定扩散初始状态的基础。不懂的话,用随机的即可
  • Restore faces: 面部修复,优化面部的,原理是调用一个神经网络模型对面部进行修复,影响面部。修复画面中人物的面部,但是非写实风格的人物开启面部修复可能导致面部崩坏
  • Tiling: 无缝贴图,是一种老牌优化技术,即 CUDA 的矩阵乘法优化,影响出图速度和降低显存消耗,不过实际选上之后可能连正常的图都不出来了。打死不开
  • Highres.fix: 高分辨率修复,默认情况下,文生图在高分辨率下会生成非常混沌的图像。如果使用高清修复,会型首先按照指定的尺寸生成一张图片,然后通过放大算法将图片分辨率扩大,以实现高清大图效果

〔AI 绘画〕Stable Diffusion 之 界面参数和基础使用 篇,《智能图像处理系列》,stable diffusion,人工智能,ai绘画,文生图,图生图

▷ 采样器

  • Euler a: 是个插画,tag 利用率仅次于 DPM2DPM2 a,环境光效菜,构图有时奇葩
  • Euler: 柔和,也适合插画,环境细节与渲染好,背景模糊较深
  • Heun: 单次出土平均质量比 EulerEuler a 高,但速度最慢,高 step 表现好
  • DDIM: 适合宽画,速度偏低,高 step 表现较好,负面 tag 不够时发挥随意,环境光线与水汽效果好,写实不佳
  • DPM2: 该采样方式对 tag 的利用率最高,几乎占用 80% 以上
  • DPM2 a: 几乎与 DPM2 相同,只是在人物的时候可能有特写
  • PLMS: 单次出图质量仅次于 Heun
  • LMS: 质感 OA,饱和度与对比度偏低,更倾向于动画风格
  • LMS Karras: 会大改成优化的风格,写实不佳
  • DPM fast: 此为上界开发者所遗留的测试工具,不适合魔术师使用

〔AI 绘画〕Stable Diffusion 之 界面参数和基础使用 篇,《智能图像处理系列》,stable diffusion,人工智能,ai绘画,文生图,图生图

▷ 文生图(txt2img)

  • 文生图(text2img): 根据提示词 Prompt 的描述生成相应的图片
  • 选择 绘画模型(Stable Diffusion checkpoint)文生图(txt2img)填写正向提示词(Prompt)填写反向提示词(Negative prompt)选择采样器(一般选择DPM++ 2M Karras)设置采样步骤(一般设置30)设置长宽(Width / Height,推荐 1024 * 1536)点击生成(Generate)
  • 根据上面的步骤,即可通过文字生成图片了,一般我们只要编写 Prompt 即可, Negative prompt 一般都是固定的,限制一下水印,低质量以及其他可能出现的逻辑错误即可

〔AI 绘画〕Stable Diffusion 之 界面参数和基础使用 篇,《智能图像处理系列》,stable diffusion,人工智能,ai绘画,文生图,图生图

▷ 图生图(img2img)

  • 图生图(img2img): 将一张图片根据提示词 Prompt 描述的特点生成另一张新的图片
  • 选择 绘画模型(Stable Diffusion checkpoint)图生图(img2img)填写正向提示词(Prompt)填写反向提示词(Negative prompt)选择采样器(一般选择DPM++ 2M Karras)设置采样步骤(一般设置30)设置长宽(Width / Height,推荐 1024 * 1536)点击生成(Generate)
  • 将上传一张图片到图生图中,进行测试一下,这里使用的是刚刚文生图的照片,根据上面的步骤,点击生成,看看效果
  • 可以看出:AI 图生图,其实就是根据你上传的图片和你的 Prompt 生成一张跟上传差不多的照片

〔AI 绘画〕Stable Diffusion 之 界面参数和基础使用 篇,《智能图像处理系列》,stable diffusion,人工智能,ai绘画,文生图,图生图

▷ 标签权重

  • 在输入 Prompt 标签的时候,有时候想到啥就会写啥,默认写在前面的权重会最高
  • stable Diffusion 中也可以通过特定符号提升关键词的权重
  • 其中 () 是加强权重,[] 是降低权重,{}NAI() 的“实现”,<> 用于嵌入
  • 例如:(eye) > [eye](eye:1.4) 会比正常情况多增加约 40%(eye:0.6) 会减少约 40 %
# 默认关键词是1.1倍
(eye) = (eye:1.1)
((eye)) = (eye:1.21)
(((eye))) = (eye:1.331)
((((eye)))) = (eye:1.4641)
(((((eye)))) = (eye:1.61051)
((((((eye)))))) = (eye:1.771561)
[eye] = (eye:0.9090909090909091)
[[eye]] = (eye:0.8264462809917355)
[[[eye]]] = (eye:0.7513148009015778)
[[[[eye]]]] = (eye:0.6830134553650707)
[[[[[eye]]]]] = (eye:0.6209213230591552)
[[[[[[eye]]]]]] = (eye:0.5644739300537775)

▷ 模型下载

  • 模型网站推荐:https://civitai.com/
  • 左上角的下拉框可以用来选择模型,其中 v1-5-pruned-emaonly.safetensors 是默认模型
  • 默认的模型画出来的图片比较丑,所以我们需要下载更好更适合的模型来绘画
  • 每个模型侧重绘画的风格不一样,有些适合画人,有些适合画动漫,有些适合画风景,根据自己的需求选择适合自己的绘画风格模型进行下载
  • 下载好模型,将模型文件放入到 models/Stable-diffusion 文件夹下,重载 UI,即可看到

〔AI 绘画〕Stable Diffusion 之 界面参数和基础使用 篇,《智能图像处理系列》,stable diffusion,人工智能,ai绘画,文生图,图生图文章来源地址https://www.toymoban.com/news/detail-649771.html

到了这里,关于〔AI 绘画〕Stable Diffusion 之 界面参数和基础使用 篇的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • 【Stable Diffusion】入门-02:AI绘画提示词+参数设置攻略

    感谢前辈种树:哔哩哔哩 Prompts:提示词,告诉AI我们要画什么,多多益善,需要英文书写。提示词以词组为单位,不需要像完整的句子那样需要有完整的语法结构。 词组之间需要插入英文半角逗号作为分隔符,可以分行,每一行的末尾最好也加上分隔符。 1.1.1 内容型提示词

    2024年03月18日
    浏览(55)
  • Stable Diffusion界面参数及模型使用

    本地部署Stable Diffusion教程,亲测可以安装成功 谷歌Colab云端部署Stable Diffusion 进行绘图 在上一篇博客中,我们成功部署了stable-diffusion-webui,在本地启动了一个 Web 服务,通过浏览器来访问页面,尝试生成了几张图片。本文将会对Stable Diffusion界面参数及模型使用做一个简单介

    2024年02月06日
    浏览(73)
  • ChatGPT 拓展资料:Stable Diffusion:零基础学会 AI 绘画

    ChatGPT 拓展资料:Stable Diffusion:零基础学会 AI 绘画

    2024年02月11日
    浏览(44)
  • 三分钟完成Stable Diffusion本地安装(零基础体验AI绘画)

      最近AI绘画很火,很多无编程基础的小伙伴也想体验一下,所以写这篇博客来帮助小伙伴们愉快的体验一下~废话少说,我们直接开整!   首先,下载本项目的所有文件,下载链接已放在文章末尾。下载完毕后,文件如图所示:   接着,打开第二个文件夹 sd-webui启动

    2024年01月19日
    浏览(90)
  • AI绘画Stable Diffusion进阶使用

    本文讲解,模型底模,VAE美化模型,Lora模型,hypernetwork。 文本Stable Diffusion 简称sd 欢迎关注 C站:https://civitai.com/ huggingface:https://huggingface.co/models?pipeline_tag=text-to-image stable diffusion webui 部署完成后,checkpoint是放底模 homewebuimodels 目录下 常见模式:后缀ckpt/safetensors 常见大小

    2024年01月22日
    浏览(67)
  • 无界AI绘画基础教程,和Midjourney以及Stable Diffusion哪个更好用?

    本教程收集于:AIGC从入门到精通教程汇总 Midjourney,Stable Diffusion,无界AI的区别? Midjourney,收费,上手容易,做出来高精度的图需要自己掌握好咒语。咒语写不好,像是抽奖。里面的模型基本都是大模型,小模型太少,需要一些辅助机器人或者辅助操作保持画风的一致。

    2024年02月09日
    浏览(52)
  • 零基础入门AI绘画神器Stable Diffusion保姆级别教程!!小白必收藏!!!

    手把手教你入门绘图超强的AI绘画程序Stable Diffusion,用户只需要输入一段图片的文字描述,即可生成精美的绘画。给大家带来了全新Stable Diffusion保姆级教程资料包(文末可获取) 1. 前言 目前市面上比较权威,并能用于工作中的 AI 绘画软件其实就两款。一个叫 Midjourney(简称

    2024年01月17日
    浏览(54)
  • 零基础入门 Stable Diffusion - 无需显卡把 AI 绘画引擎搬进家用电脑

    我从小特别羡慕会画画的伙伴。他们能够将心中的想法画出来,而我最高水平的肖像画是丁老头。但在接触 Stable Diffusion 之后,我感觉自己脱胎换骨,给自己贴上了「会画画」的新标签。 丁老头进化旅程 Stable Diffusion 是一个「文本到图像」的人工智能模型,也是唯一一款开源

    2024年02月03日
    浏览(64)
  • AI 绘画基础 - 细数 Stable Diffusion 中的各种常用模型 【? 魔导士装备图鉴】

    AI 绘画新手魔导士在刚开始玩 Stable Diffusion 时总会遇到各种新的概念,让人困惑,其中就包括各种模型和他们之间的关系。 魔法师入门得先认识各种法师装备(各种模型),让我们遇到问题知道使用何种装备来协助自己发挥更大的效果。 在了解各种模型之前,有必须先了解

    2024年02月03日
    浏览(46)
  • AI 绘画基础 - 细数 Stable Diffusion 中的各种常用模型 【 魔导士装备图鉴】

    AI 绘画新手魔导士在刚开始玩 Stable Diffusion 时总会遇到各种新的概念,让人困惑,其中就包括各种模型和他们之间的关系。 魔法师入门得先认识各种法师装备(各种模型),让我们遇到问题知道使用何种装备来协助自己发挥更大的效果。 在了解各种模型之前,有必须先了解

    2024年02月10日
    浏览(75)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包