Stable Diffusion基础:ControlNet之图片高仿效果

这篇具有很好参考价值的文章主要介绍了Stable Diffusion基础:ControlNet之图片高仿效果。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

今天继续给大家分享AI绘画中 ControlNet 的强大功能,本次的主角是 Reference,它可以将参照图片的风格迁移到新生成的图片中,这句话理解起来很困难,我们将通过几个实例来加深体会,比如照片转二次元风格、名画改造、AI减肥成功图片制作、绘本小故事等等。

还有之前看很多文章说,Reference 可以一定程度上代替Lora,真的是这样吗?今天也来一探究竟。

基本使用

我这里有一张提前生成好的美女图片,现在就用她来实测 Reference 的控制效果。

Stable Diffusion基础:ControlNet之图片高仿效果,AIGC,人工智能,stable diffusion,ControlNet,ai绘画,Reference

下面开始生成:

首先是选择一个大模型,这里使用的是和上面生成图片相同的模型:realisticVisionV20;

然后我们填写一些简单的提示词,以免出现一些不太方便的图。这里故意没有使用生成参考图片时的提示词,因为提示词会影响出图效果,就看不出来 Reference 的复刻效果了。

Stable Diffusion基础:ControlNet之图片高仿效果,AIGC,人工智能,stable diffusion,ControlNet,ai绘画,Reference

这是我的一些模型生成参数,大家可以参考,没必要完全按照这个来。

Stable Diffusion基础:ControlNet之图片高仿效果,AIGC,人工智能,stable diffusion,ControlNet,ai绘画,Reference

最最重要的就是 ControlNet 的设置,如下图所示:

  • 上传参考图片
  • 启用 ControlNet
  • 勾选完美匹配像素
  • 选择 Reference

Stable Diffusion基础:ControlNet之图片高仿效果,AIGC,人工智能,stable diffusion,ControlNet,ai绘画,Reference

注意这个 ControlNet 只有一个预处理器,它可以从参考图中提取图片的特征信息,用于生成控制。

Reference 还有一个 Style Fidelity 参数,翻译过来就是风格忠实度,越小越接近使用的大模型的风格,越大越接近参考图的风格,但是越大可能出现图片崩坏的情况,0.5是个平衡值。

Stable Diffusion基础:ControlNet之图片高仿效果,AIGC,人工智能,stable diffusion,ControlNet,ai绘画,Reference

然后就可以生图了,看一下效果:

Stable Diffusion基础:ControlNet之图片高仿效果,AIGC,人工智能,stable diffusion,ControlNet,ai绘画,Reference

以我个人的眼光,只能说:人物的形态、整体构图是复制出来了,但是气质还是差那么一点的。

局部绘制

很多分享 Reference 技术的文章还提到,Reference 可以起到一定的 Inpaint 效果,那么这里也来看下效果如何。这里的局部重绘是通过提示词发生作用的,下面是几个例子:

裙子变成黑色:1girl, white shirt, ((black skirt)),提示词权重要高一些,否则不容易扭转过来。人物姿态和背景都没啥大变化,裙子也变成了黑色,只是有一张用力过猛,上衣颜色也变了。

Stable Diffusion基础:ControlNet之图片高仿效果,AIGC,人工智能,stable diffusion,ControlNet,ai绘画,Reference

黑发变成金色:1girl, white shirt and dress, ((golden hair))。人物姿态和背景都没啥大变化,头发变成金色的了,人脸也没变成外国人。

Stable Diffusion基础:ControlNet之图片高仿效果,AIGC,人工智能,stable diffusion,ControlNet,ai绘画,Reference

把背景换成公园:1girl, white shirt and dress, ((the background is park))。背景更换成功,同时人物姿态和衣服颜色都没啥大变化。

Stable Diffusion基础:ControlNet之图片高仿效果,AIGC,人工智能,stable diffusion,ControlNet,ai绘画,Reference

不同模型

上边的参考图片和生成图片使用的是同一个大模型,测试结果难免会有说服力不够的问题,下图是我使用三个模型做的对比测试,每个模型使用 Reference 生成两张图片。

提示词还是这个:1girl, white shirt and dress, 其它参数都保持不变。

Stable Diffusion基础:ControlNet之图片高仿效果,AIGC,人工智能,stable diffusion,ControlNet,ai绘画,Reference

可以看到,人物的形态、背景、色彩搭配等都被迁移到了新生成的图片中,当然这些图片也还会受到基础模型的很大影响,渲染的笔触、人物的五官都受到模型的紧密约束。

到这一步,你能说 Reference 是 Lora 吗?它能代替 Lora 吗?我认为它们是有很大的不同的。

控制参数

Reference还有一些控制参数,这里给大家看下效果。

为了方便演示,我这里专门生成了一张连环画风格的图片作为参考图:

Stable Diffusion基础:ControlNet之图片高仿效果,AIGC,人工智能,stable diffusion,ControlNet,ai绘画,Reference

然后生成图片的大模型选择的是二次元模型 AnythingV5。

Style Fidelity

Stable Diffusion基础:ControlNet之图片高仿效果,AIGC,人工智能,stable diffusion,ControlNet,ai绘画,Reference

值为 1 的效果:色彩更偏重参考图。

Stable Diffusion基础:ControlNet之图片高仿效果,AIGC,人工智能,stable diffusion,ControlNet,ai绘画,Reference

值为 0 的效果:色彩更偏重模型。

Stable Diffusion基础:ControlNet之图片高仿效果,AIGC,人工智能,stable diffusion,ControlNet,ai绘画,Reference

预处理器

Stable Diffusion基础:ControlNet之图片高仿效果,AIGC,人工智能,stable diffusion,ControlNet,ai绘画,Reference

这里有三个预处理器:

  • Reference only:生成与参考图类似的风格和脸部。
  • Reference adain:使用 AdaIN 风格迁移算法,结果可能偏离参考图;
  • Reference adain+attn:综合 only 和 adain 方法。

Reference only 我们已经看过了,分别看下另外两个的效果。

Reference adain:确实更接近模型,颜色和脸型的变化特别明显,更加偏重 Anything 的二次元风格。

Stable Diffusion基础:ControlNet之图片高仿效果,AIGC,人工智能,stable diffusion,ControlNet,ai绘画,Reference

Reference adain+attn:介于模型风格和参考图风格之间。

Stable Diffusion基础:ControlNet之图片高仿效果,AIGC,人工智能,stable diffusion,ControlNet,ai绘画,Reference

用途示例

风格转绘

比如各大短视频平台比较流行的照片转动漫风格,可以在“图生图”中上传一张真实照片,然后使用动漫风格的大模型加上 Reference 进行重绘。下图的效果,提示词只要一个简单的:1girl,重绘强度控制在0.4以下即可。

Stable Diffusion基础:ControlNet之图片高仿效果,AIGC,人工智能,stable diffusion,ControlNet,ai绘画,Reference

名画改造

这是利用了 Reference 的局部重绘能力。在“图生图”中使用如下提示词:

女人和猫咪:A woman and a cat

背景改长城:A woman, the background is Badaling Great Wall

注意重绘幅度调整到0.4-0.6。

Stable Diffusion基础:ControlNet之图片高仿效果,AIGC,人工智能,stable diffusion,ControlNet,ai绘画,Reference

减肥成功

一个AI减肥成功的故事,还是利用了 Reference 的局部重绘能力。

大模型使用realisticVisionV20_v20,参数参考:

A strong man lifts up his shirt, eight-pack abs, strong chest muscles, and biceps.
Negative prompt: EasyNegative
Steps: 30, Sampler: DPM++ 2M SDE Karras, CFG scale: 7, Seed: 1734015608, Size: 512x768, Model hash: c0d1994c73, Model: realisticVisionV20_v20, Denoising strength: 0.75, Clip skip: 2, Style Selector Enabled: True, Style Selector Randomize: False, Style Selector Style: base, ControlNet 0: "preprocessor: reference_adain+attn, model: None, weight: 1, starting/ending: (0, 1), resize mode: Crop and Resize, pixel perfect: True, control mode: My prompt is more important, preprocessor params: (-1, 0.5, -1)", TI hashes: "EasyNegative: c74b4e810b03", Version: v1.5.1

如果感觉脸不像,可以使用 roop 插件处理下,使用方法参见我另一篇教程:真人AI写真的制作方法-文生图换脸

Stable Diffusion基础:ControlNet之图片高仿效果,AIGC,人工智能,stable diffusion,ControlNet,ai绘画,Reference

绘本小故事

故事情节

小女孩走在放学回家的路上,步履匆匆;

她在路边发现了一只受伤的狗子,表情痛苦,怎么办呢;

小女孩一咬牙,抱着狗子来到了医院;

狗子得到了救治有点开心,女孩花光了钱有点不高兴;

小女孩和狗子欢快的走在回家的路上,因为他们成了好朋友。

狗子从此有了一个家。

制作方法:

提前生成一张女孩的图片,然后使用 Reference 加不同的提示词生成不同的图片。

这里使用的大模型是 toonyou_beta3。

Stable Diffusion基础:ControlNet之图片高仿效果,AIGC,人工智能,stable diffusion,ControlNet,ai绘画,Reference

资源下载

本文使用的模型、插件,生成的图片,都已经上传到了我整理的SD绘画资源中,后续也会持续更新,如有需要,请/关/注/公/众\号:萤火遛AI(yinghuo6ai),发消息:SD,即可获取下载地址。


以上就是本文的主要内容了,如有问题,欢迎给我留言沟通交流。

如果你还没有使用过Stable Diffusion WebUI,可以先看这几篇文章,了解下如何使用:

手把手教你在本机安装Stable Diffusion秋叶整合包

手把手教你在云环境炼丹(部署Stable Diffusion WebUI)

SDXL 1.0出图效果直逼Midjourney!手把手教你快速体验!文章来源地址https://www.toymoban.com/news/detail-653573.html

到了这里,关于Stable Diffusion基础:ControlNet之图片高仿效果的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • Stable Diffusion Controlnet V1.1 基础用法

    用于ControlNet和其他基于注入的SD控件的WebUI扩展。针对 AUTOMATIC1111 的 Stable Diffusion web UI 网络用户界面的扩展,它可以让网络界面在原始的 Stable Diffusion 模型中添加 ControlNet 条件来生成图像。 这种添加是实时的不需要进行合并。使人们能从参考图像复制构图或人物姿态。老练的

    2024年02月11日
    浏览(36)
  • Stable Diffusion基础:ControlNet之人体姿势控制

    在AI绘画中精确控制图片是一件比较困难的事情,不过随着 ControlNet 的诞生,这一问题得到了很大的缓解。 今天我就给大家分享一个使用Stable Diffusion WebUI + OpenPose ControlNet 复制照片人物姿势的方法,效果可以参考上图。 OpenPose 可以控制人体的姿态、面部的表情,有时候还能够

    2024年02月13日
    浏览(39)
  • Stable Diffusion系列(二):ControlNet基础控件介绍

    在下载插件时可以看到,ControlNet 插件的星数遥遥领先,远超其他妖艳贱货。究其原因,是因为其大大增强了使用者对图片生成过程的控制能力,图片的生成同时受到提示词和提示图的影响,使得文生图由抽卡游戏变成了一个更具确定性的创作工具。 ControlNet位置位于文生图界

    2024年02月05日
    浏览(33)
  • (十六) AIGC、AI绘画、SD-WebUI、本地部署、Stable-Diffusion本地模型、最新Controlnet扩展

    1、简介 AI绘画的工具网站很多,大部分收费/限制数量,而且速度很慢,如果部署本地的模型,不仅免费无限制、还可以提高出图效率,随意生成自己想象中的图,部署中发现有各种各样的环境配置问题,无法正确运行。 本博整理了SD-WebUI的整合包(Windows环境下),包括启动器

    2024年02月13日
    浏览(79)
  • Stable Diffusion基础:ControlNet之重新上色(黑白照片换新颜)

    本文给大家分享 Stable Diffusion 的基础能力:ControlNet 之重新上色。 这是一个最近新上的 ControlNet 模型,它可以识别图像中的不同区域,并使用不同的颜色重新绘制它们。 工欲善其事必先利其器,ControlNet 还是先要安装好的,已经安装好的请跳过这一步。 之前的文章已经介绍过

    2024年02月08日
    浏览(43)
  • Stable Diffusion Controlnet V1.1 的14种基础标志用法

    用于ControlNet和其他基于注入的SD控件的WebUI扩展。针对 AUTOMATIC1111 的 Stable Diffusion web UI 网络用户界面的扩展,它可以让网络界面在原始的 Stable Diffusion 模型中添加 ControlNet 条件来生成图像。 这种添加是实时的不需要进行合并。使人们能从参考图像复制构图或人物姿态。老练的

    2024年02月04日
    浏览(40)
  • AIGC专栏4——Stable Diffusion原理解析-inpaint修复图片为例

    Inpaint是Stable Diffusion中的常用方法,一起简单学习一下。 https://github.com/bubbliiiing/stable-diffusion 喜欢的可以点个star噢。 txt2img的原理如博文 Diffusion扩散模型学习2——Stable Diffusion结构解析-以文本生成图像(文生图,txt2img)为例 img2img的原理如博文 Diffusion扩散模型学习3——Sta

    2024年02月10日
    浏览(38)
  • 实测AIGC工作流,Stable Diffusion + Mubert 实现图片与音乐的转换生成

    社区分享了不少文本生成图像的AIGC(AI生成内容)应用的突破,图像类的生成已经是“红海”了。 我们需要寻找“蓝海”,近期出现了其他内容的突破吗? Mixlab 小杜 社区五月份介绍了 Pollinations.ai ,平台集成了文本、图像、音频、视频等多种模态的模型,近期平台功能也

    2024年02月12日
    浏览(52)
  • 【AIGC】如何在使用stable-diffusion-webui生成图片时看到完整请求参数

    通过代码调用Stable Diffusion的txt2img、img2img接口时,很多时候都不知道应该怎么传参,比如如何指定模型、如何开启并使用Controlnet、如何开启面部修复等等,在sd-webui上F12看到的请求也不是正式调用SD的请求,所以当引入新插件或需要使用新功能时,怎么传参成了一个大问题,

    2024年02月08日
    浏览(57)
  • Stable Diffusion stable-diffusion-webui ControlNet Lora

    Stable Diffusion用来文字生成图片,ControlNet就是用来控制构图的,LoRA就是用来控制风格的 。 国内加速官网: mirrors / AUTOMATIC1111 / stable-diffusion-webui · GitCode 安装参考: Stable Diffusion安装与常见错误(+Lora使用)2023年最新安装教程_cycyc123的博客-CSDN博客 保姆级教程:从0到1搭建St

    2024年02月09日
    浏览(77)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包