AIGC:如何使用Stable Diffusion生图

这篇具有很好参考价值的文章主要介绍了AIGC:如何使用Stable Diffusion生图。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

文生图

1. 正反向Prompt

使用文字Prompt,正向和反向词的添加来生成图片,通过对应参数调节和添加更多的Prompt来让AI更清晰的感知我们想要的场景图片、添加更多的Prompt之间使用英文,分隔。 提示词使用英文,完全不需要语法

AIGC:如何使用Stable Diffusion生图

这里有个通用的正反向咒语,在生成图片时可以使用的到,为了使我们生成的土图片更加的生动,人物场景更加的清晰,更符合我们描述的样子

参考
 - 正向
	(masterpiece:1,2),best quality,masterpiece,highres,original,extremely detailed wallpaper,perfect lighting,(extremely detremely detailed CG:1.2),drawing,paintbrush,
 - 反向
	NSFW,(worst quality:2),(low quality:2),(normal quality:2),lowres,normal quality,((monochrome)),((grayscale)),skin spots,acnes,skin blemishes,age spot,(ugly:1.331),(duplicate:1.331),(morbid:1.21),(mutilated:1.21),(tranny:1.331),mutated hands,(poorly drawn hands:1.5),blurry,(bad anatomy:1.21),(bad proportions:1.331),extra limbs,(disfigured:1.331),(missing arms:1.331),(extra legs:1.331),(fused fingers:1.61051),(too many dingers:1.61051),(unclear eyes:1.331),lowers,bad hands,missing fingers,extra digit,bad hands,missing fingers,(((extra arms and legs)))

这里有几个网站比较不错,我直接帖在下面

  • openart.ai 进入网站主页点discovery里面有对应图片生成时的Prompt和参数,很多基于SD官方模型和欧美主流模型生成的作品
  • arthub.ai 记录了更多的二次元和亚洲审美的内容网站,里面具体都类似
  • ai.dawnmark.cn 这个是对于自己想要的Prompt词的傻瓜操作的网站,直接点击,在上面复制下来就是对应的。

生成Prompt词对应的步骤

  • 人物及主体特征(服饰穿搭,发饰发色,五官,面部,肢体动作)
  • 场景特征(室内、室外,大场景 city、street,小细节)
  • 内容型的提示词(画质,best quality, ultra detailed, masterpiece, hires, 8k, extremely detailed CG unity 8k wallpaper, 画风 比如二次元 anime, game cg,插画 painting,illustration,偏真实系画风 Photorealistic,realistic 更依赖真实系训练的模型))

Prompt关键词对应
如果想突出什么东西 就可以在Prompt关键词加上 () 每加一层括号对应权重就 × 1.1倍

  • 括号加数字
    (white flower:1.5), 权重为之前的1.5倍(增强)
    (white flower:0.8), 权重为之前的0.8倍(减弱)
  • 套括号
    圆括号 (((white flower))), 每一层额外×1.1倍
    大括号 {{{white flower}}}, 每套一层额外×1.05倍
    方括号 [[[white flower]]], 每套一层额外×0.9倍
    避免个别词条Prompt权重过高过低,最好控制在 1±0.5左右,过高容易扭曲画面,推荐增加更多的词条来画作
    AIGC:如何使用Stable Diffusion生图
提示词的权重分配

AIGC:如何使用Stable Diffusion生图

2. 迭代步数

AI生成图像步骤类似一个加噪去噪的过程,先将原图片进行加噪扩散使图片模糊,通过模型和对应Prompt关键词进行逆过程去噪,每迭代一次,图片就会变得更清晰,迭代的次数越多,花费的时间就越久。。
AIGC:如何使用Stable Diffusion生图
推荐的迭代步数值一般设置在20,如果算力充足也最求更好可以在30-40,最少不能低于10

3. 采样方法

AI生成图像使用的某种特定的算法AIGC:如何使用Stable Diffusion生图
模型不同有差异,只是推荐使用,并非绝对的,推荐使用带有+号的

  • 适合插画风格 Euler, Euler a
  • 出图快 DPM 2M,2M Karras
  • 细节丰富 SDE Karras

3.1 宽度高度 最后出图的分辨率

默认的是 512×512 即使出图效果很好,画面很更富也会感觉很模糊 可以提到1024×1024 设置太大的宽高出图会有问题,而且设备的显存等遭不住啊。。。。。。。

一般使用小的宽高比生成图片,在使用高清修复来放大,使用的原理是图生图
AIGC:如何使用Stable Diffusion生图

3.2 面部修复

一般都会勾选上,AI出图会使用特定的对抗算法对人物的面部进行修复,相当于美图P图软件的修脸

3.3 生成批次,每批数量

  • 生成批次 ===> 使用相同参数让AI批量的生成多张图片,在生成完成对应数量之后,会生成一张全部批次对应的合集,方便对比
  • 每批数量 =====> 不推荐修改

如果觉得提示词Prompt不好写,不妨去搜搜对应提示词的插件,或者对应提示词的可视化网站文章来源地址https://www.toymoban.com/news/detail-489898.html

到了这里,关于AIGC:如何使用Stable Diffusion生图的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • Stable Diffusion XL Turbo 文生图和图生图实践

    本篇文章聊聊,如何快速上手 Stable Diffusion XL Turbo 模型的文生图和图生图实战。 分享一篇去年 11 月测试过模型,为月末分享的文章做一些技术铺垫,以及使用新的环境进行完整复现。 本篇文章相关的代码保存在 soulteary/docker-stable-diffusion-xl-turbo,有需要可以自取,欢迎“一键

    2024年01月21日
    浏览(51)
  • AIGC文生图:stable-diffusion-webui部署及使用

    Stable Diffusion Web UI 是一个基于 Stable Diffusion 的基础应用,利用 gradio 模块搭建出交互程序,可以在低代码 GUI 中立即访问 Stable Diffusion Stable Diffusion 是一个画像生成 AI,能够模拟和重建几乎任何可以以视觉形式想象的概念,而无需文本提示输入之外的任何指导 Stable Diffusion Web

    2024年02月16日
    浏览(78)
  • Stable-diffusion-WebUI 的API调用(内含文生图和图生图实例)

    在之前尝试使用Diffusers库来进行stable-diffusion的接口调用以及各种插件功能实现,但发现diffusers库中各复杂功能的添加较为麻烦,而且难以实现对采样器的添加,safetensors格式模型的读取。在官网上找到了webui有专门的api接口,能够极大方便我们进行类似webui界面的api调用。 d

    2024年01月17日
    浏览(59)
  • AIGC:文生图模型Stable Diffusion

    Stable Diffusion 是由CompVis、Stability AI和LAION共同开发的一个文本转图像模型,它通过LAION-5B子集大量的 512x512 图文模型进行训练,我们只要简单的输入一段文本,Stable Diffusion 就可以迅速将其转换为图像,同样我们也可以置入图片或视频,配合文本对其进行处理。 Stable Diffusion的

    2024年02月15日
    浏览(40)
  • AIGC 文生图及 stable diffusion webui 练习笔记

    文生图, 图生图 等 AIGC 创作大火, 也来体验一把~ 本文记录了环境搭建过程与使用心得. 如果动手能力弱或只想省心, 有现成的整合包, 见参考[1] 列出来我的环境吧: CPU, AMD Ryzen 7 5800X 8-Core Processor RAM, 32G GPU, NVIDIA GeForce RTX 2070 SUPER (8G) OS, Windows 11 专业版 开发环境, python 3.10 与 gi

    2024年02月09日
    浏览(46)
  • AIGC专栏3——Stable Diffusion结构解析-以图像生成图像(图生图,img2img)为例

    用了很久的Stable Diffusion,但从来没有好好解析过它内部的结构,写个博客记录一下,嘿嘿。 https://github.com/bubbliiiing/stable-diffusion 喜欢的可以点个star噢。 Stable Diffusion是比较新的一个扩散模型,翻译过来是稳定扩散,虽然名字叫稳定扩散,但实际上换个seed生成的结果就完全不

    2024年02月10日
    浏览(60)
  • AIGC专栏2——Stable Diffusion结构解析-以文本生成图像(文生图,txt2img)为例

    用了很久的Stable Diffusion,但从来没有好好解析过它内部的结构,写个博客记录一下,嘿嘿。 https://github.com/bubbliiiing/stable-diffusion 喜欢的可以点个star噢。 Stable Diffusion是比较新的一个扩散模型,翻译过来是稳定扩散,虽然名字叫稳定扩散,但实际上换个seed生成的结果就完全不

    2024年02月10日
    浏览(50)
  • 图生图—AI图片生成Stable Diffusion参数及使用方式详细介绍

            本文为博主原创文章,未经博主允许不得转载。         本文为专栏《Python从零开始进行AIGC大模型训练与推理》系列文章,地址为“https://blog.csdn.net/suiyingy/article/details/130169592”。         Stable Diffusion webui的详细安装步骤以及文生图(txt2img)功能详细介绍

    2024年02月08日
    浏览(82)
  • 使用 Keras 的 Stable Diffusion 实现高性能文生图

    在本文中,我们将使用基于 KerasCV 实现的 Stable Diffusion 模型进行图像生成,这是由 stable.ai 开发的文本生成图像的多模态模型。 Stable Diffusion 是一种功能强大的开源的文本到图像生成模型。虽然市场上存在多种开源实现可以让用户根据文本提示轻松创建图像,但 KerasCV 有一些

    2024年03月21日
    浏览(50)
  • 《Stable Diffusion web UI 使用—1文生图 (动漫风)》

    上一篇文章下载了模型,但是在刷新模型发现根本不行,原来是在下载模型时候选择错误。  第三步要选红色框这个——然后点击4th-Download Model才是对的 回到我们的colab要看见下载有多大,有多少个G开始下载才正确 今天才选择正确,开始我们的模型,第一个模型是动漫风格

    2024年02月12日
    浏览(43)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包