AI 绘画StableDiffusionWebui图生图

这篇具有很好参考价值的文章主要介绍了AI 绘画StableDiffusionWebui图生图。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

介绍

stable-diffusion-webui AI绘画工具,本文介绍图生图,以一张图片做底图优化生成。

例如:上传一张真人照片,让AI把他改绘成动漫人物;上传画作线稿,让AI自动上色;上传一张黑白照,让AI把它修复成彩色相片。
https://github.com/AUTOMATIC1111/stable-diffusion-webui

这个功能位于「Img2img」的页签。

参数

  • Resize mode:调整生成图片分辨率的模式,有原始分辨率、矩形、精确缩放等选项

    • Just resize:紧调整大小,直接拉伸图像
    • Crop and resize:裁剪然后调整大小,长宽比保持不变,但左右两侧会损失一点数据。
    • Resize and fill:调整大小并填充,这会在你的图像周围填充新的噪点
    • Just resize (latent upscale):和第一个选项相同,但使用的是潜在空间上采样技术。
  • Sampling method:采样方法,主要有Euler、Euler a、DPM++、DPM Fast等。

  • Sampling steps:采样步数,一般设为20-100,步数越多质量越高但速度更慢。

  • Refiner:选择是否使用重采样模型提升质量。

    • Switch at 10 - 在第10步时切换到重采样模型。
    • Switch at 0 - 表示一开始就使用重采样模型,不进行普通采样。
    • Switch at -1 - 表示全部使用普通采样,不切换到重采样模型。
  • Resize to:直接设定生成图片的分辨率大小

  • Resize by:按比例缩放生成图片的分辨率。

  • CFG Scale:控制生成图片质量和速度的折中参数,范围7-12。

  • Denoising strength:去噪强度,默认为0.75,数值越高去噪强度越大。

  • Seed:随机种子数,确保每次相同条件可以复现结果。

  • Script:选择定制脚本,实现不同效果。

  • Interrogate Deepboooru
    上传图片后,用Danbooru图库数据判别图片并自动填入提示词。需要注意Deepbooru训练的图像数量有限,它顶多只能用来认图片的场景和人物tag,无法准确标出最新的动漫角色。

  • Interrogate CLIP
    类似Deepbooru用途,不过较适合判别真人照片内容。

stable diffusion webui绘画网站图片,gpt,人工智能,chatgpt,aigc,ai绘画,stable diffusion,ai

Refiner

Refiner 选项框内包含两个选项,一个是模型的选择框 “checkpoint”,另一个是决定何时开始使用 refiner 模型 “switch at”。当 “switch at”设定为0.5时即表示前一半的步骤使用 base 模型迭代,最后一半的步骤使用 refiner 模型迭代。设定为1则表示关闭此功能。

很有意思的是,refiner 的模型选项框内可以选择不止refiner 模型,还可以选择其他的普通模型(SDXL 和 SD1.5 都可以),因此就衍生出一种新的玩法,比如前面几步我使用真实模型,后面几步则使用动漫模型推理,生成更具特色的图片。

stable diffusion webui绘画网站图片,gpt,人工智能,chatgpt,aigc,ai绘画,stable diffusion,ai

inpainting

https://github.com/AUTOMATIC1111/stable-diffusion-webui-feature-showcase#inpainting
当用户想要改进生成的图像中的某些部分时,可以使用修复功能来指定并编辑图像中的任何部分。

scripts (自定义脚本)

Loopback

这个功能允许用户多次将输出图像反馈到img2img中,使用相同的提示生成更多图像。

SD Upscale

用于提高低分辨率、小尺寸图像的大小和质量,通过使用算法如Lanczos和Real ESRGAN/ESRGAN来放大多个图像,并将这些图像叠加生成单一放大图像。

  • Lanczos 是一种标准的图像缩放算法,虽然面部更干净一些,但它通常更忠实于原始图像。
  • Real ESRGAN 2x Plus的色调稍偏暖,头发、衣服上的皱纹等细节有些模糊,给人一种柔和的印象。
  • 无论Real ESRGAN 4x Anime 6B是否是专门用于动画的算法,给人的印象是整体绘制均匀,并且经过校正,使颜色清晰分离而不是渐变。另外,修饰后的脸部也有一丝动漫人物的气息。
  • Real ESRGAN 4x 具有柔软而模糊的触感,尤其是当您观察女孩的皮肤触感时。

Outpainting mk2

图像的外延绘制功能,即在图像的边缘添加新的内容。

Poor man’s outpainting

更基础的外延绘制方法。

Prompts from file or textbox

用于从文件中读取提示,并用于图像生成

Prompt matrix

这个功能允许用户通过组合输入的字符串(提示)来生成图像。通常,关键词是用逗号分隔的,但在Prompt matrix中,它们是用竖线(‘|’)分隔的。例如,输入提示“繁忙的现代城市街道 | 插画 | 电影式灯光”,系统将生成结合了“繁忙的现代城市街道”、“插画”和“电影式灯光”的图像。这个功能可以输出多种组合的图像,让用户看到不同元素组合的效果。
stable diffusion webui绘画网站图片,gpt,人工智能,chatgpt,aigc,ai绘画,stable diffusion,ai

controlnet m2m

加载视频,,并照常配置 controlnet 的其余部分,但不加载图片

Controlnet 将从视频中获取图片并创建视频。
https://www.reddit.com/media?url=https%3A%2F%2Fpreview.redd.it%2Fio1uce6d6zka1.gif%3Fformat%3Dmp4%26s%3Deae8ab720eeaa71a0197a3999ae53d7d88057317

X/Y Plot

这个功能提供了两种选择项“X Type”和“Y Type”,用户可以选择不同的变量,如“Seed”(种子)、“Steps”(步骤)、“CFG Scale”(CFG比例,越高的值使图像更接近提示)、“Prompt S/R”(结束提示)和“Sampler”(采样器)。用户可以通过这些选项来生成不同风格和特征的图像。例如,选择不同的画家风格和采样器类型,可以看到每位画家风格的差异以及不同采样器带来的效果。

stable diffusion webui绘画网站图片,gpt,人工智能,chatgpt,aigc,ai绘画,stable diffusion,ai

示例

https://civitai.com/models/34185/test002
stable diffusion webui绘画网站图片,gpt,人工智能,chatgpt,aigc,ai绘画,stable diffusion,ai文章来源地址https://www.toymoban.com/news/detail-814912.html

到了这里,关于AI 绘画StableDiffusionWebui图生图的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • AI 绘画Stable Diffusion 研究(十)sd图生图功能详解-精美二维码的制作

    免责声明: 本案例所用安装包免费提供,无任何盈利目的。 大家好,我是风雨无阻。 为了让大家更直观的了解图生图功能,明白图生图功能到底是干嘛的,能做什么事情?今天我们继续介绍图生图的实用案例-精美二维码的制作。 对于新朋友,想详细了解Stable Diffusion 的话,

    2024年02月09日
    浏览(48)
  • AI 绘画Stable Diffusion 研究(九)sd图生图功能详解-老照片高清修复放大

    大家好,我是风雨无阻。 通过前面几篇文章的介绍,相信各位小伙伴,对 Stable Diffusion 这款强大的AI 绘图系统有了全新的认知。我们见识到了借助 Stable Diffusion的文生图功能,利用简单的几个单词,就可以生成完美的图片。本期我们一起来研究 Stable Diffusion图生图功能这个宝

    2024年02月12日
    浏览(79)
  • AI 绘画用 Stable Diffusion 图生图局部重绘功能给美女换装(这是我能看的嘛)

    昨天带大家一起装好了 Stable Diffusion 的环境,今天就来带大家一起体验一下 Stable Diffusion 的 局部重绘 功能。 没装好环境的可以看上一篇:AI 绘画基于 Kaggle 10 分钟搭建 Stable Diffusion(保姆级教程) Stable Diffusion 的局部重绘使用非常简单,大家按图一步步操作即可: 点击“图

    2024年02月11日
    浏览(56)
  • Stable Diffusion WebUI 图生图 DeepBooru反推提示词 结果翻车了

    图生图界面,上传图片,点击“DeepBooru反推提示词”  图形界面没有反应,终端日志 github网络不通导致 手动处理 日志 成功获取 Stable Diffusion WebUI 集成 LoRA模型,给自己做一张壁纸 Ubuntu22.04 rtx2060 6G_hkNaruto的博客-CSDN博客 参考上文,下载模型,添加上LoRA模型参数,名称参考如

    2024年02月16日
    浏览(41)
  • Stable-diffusion-WebUI 的API调用(内含文生图和图生图实例)

    在之前尝试使用Diffusers库来进行stable-diffusion的接口调用以及各种插件功能实现,但发现diffusers库中各复杂功能的添加较为麻烦,而且难以实现对采样器的添加,safetensors格式模型的读取。在官网上找到了webui有专门的api接口,能够极大方便我们进行类似webui界面的api调用。 d

    2024年01月17日
    浏览(60)
  • Stable Diffusion WebUI 图生图(img2img):图生图/涂鸦绘制/局部重绘/有色蒙版/上传蒙版/批量处理/反推提示词

    本文收录于《AI绘画从入门到精通》专栏,专栏总目录:点这里,订阅后可阅读专栏内所有文章。 大家好,我是水滴~~ 本篇文章我们介绍 Stable Diffusion WebUI 的图生图功能,主要包括:图生图、图生图(手绘修正)/涂鸦绘制、局部重绘、局部重绘(有色蒙版)、局部重绘(上传

    2024年04月10日
    浏览(50)
  • 图生图—AI图片生成Stable Diffusion参数及使用方式详细介绍

            本文为博主原创文章,未经博主允许不得转载。         本文为专栏《Python从零开始进行AIGC大模型训练与推理》系列文章,地址为“https://blog.csdn.net/suiyingy/article/details/130169592”。         Stable Diffusion webui的详细安装步骤以及文生图(txt2img)功能详细介绍

    2024年02月08日
    浏览(90)
  • 【stable diffusion】保姆级入门课程02-Stable diffusion(SD)图生图-基础图生图用法

    目录 学前视频 0.本章素材  1.图生图是什么 2.图生图能做什么 3.如何使用图生图 4.功能区域 4.1.提示词区域 4.2.图片提示词反推区域 1.CLIP反推 2.DeepBooru 反推 4.3.图片上传区域 4.4.结果图区域 4.5.缩放模式  4.6.重绘幅度 7.结语 8.课后训练   stable diffusion图生图教程 百度网盘 夸克

    2024年02月15日
    浏览(73)
  • Stable Diffusion图生图

            我们都知道,模型在运算时是根据我们提供的提示内容来确定绘图方向,如果没有提示信息,模型只能根据此前的学习经验来自行发挥。在之前的文生图篇,我们介绍了如何通过提示词来控制图像内容,但想要实现准确的出图效果,只靠简短的提示词是很难满足实

    2024年02月04日
    浏览(48)
  • Stable Diffusion教程:图生图

    “图生图”是 Stable Diffusion的 核心功能之一,它的主要能力是根据现有的图片 + 提示词生成新的改造图片,这在日常的工作和生活中都特别有用。 话不多说,让我们看看它都有什么神奇的魔法吧。 本节以生成人物的二次元风格的照片为例,具体步骤如下: 1、在Stable Diffusi

    2024年04月14日
    浏览(65)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包