Stable Diffusion【ControlNet】:改善画质细节的tile模型

这篇具有很好参考价值的文章主要介绍了Stable Diffusion【ControlNet】:改善画质细节的tile模型。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

大家好,我是程序员晓晓。

在ControlNet中,有一个模型叫做Tile, 翻译成中文为"瓷砖,瓦片"。在SD Web UI工具中经常翻译为“分块”,它的主要作用是在保持图片整体布局的基础上给照片添加细节。基于这个特性,经常结合各种插件做图片的精细放大处理,用于对图片进行高清修复改善画质。另外它还有一个很重要的功能,就是用来转换图片风格,比如真人漫改,漫改真人、各种艺术字制作等。今天我们重点来看一下使用这个插件进行图片的高清处理以及细节处理。

一. Tile模型介绍

controlnet tile,stable diffusion,人工智能,AIGC,AI作画,AI绘画

在上图中,tile模型的控制类型是Tile/Blur(分块/模糊)。这是由于在1.1.410版本后,引入了Blur预处理器,该处理器主要用于调整图片的模糊度。

二. 应用场景1:图片的高清修复

我们下面来看一下使用tile模型进行图片的高清修复。这里使用图生图的方式来操作。

【第一步】:图生图图片的上传

controlnet tile,stable diffusion,人工智能,AIGC,AI作画,AI绘画

下面进行相关参数设置。

controlnet tile,stable diffusion,人工智能,AIGC,AI作画,AI绘画

  • 采样器:DPM++ 2M Karras

  • 采样迭代步数:30

  • 图片宽高:512*512,我这里原图片宽高是64*64,这里最好调整到512*512,对图片进行等比例放大。

  • 生成数量:2,一次多生成几张,提高抽签概率

  • 重绘强度:设置为0.6,这个参数建议在0.5以上,大家可以多尝试**。**

【第二步】:ControlNet的设置

controlnet tile,stable diffusion,人工智能,AIGC,AI作画,AI绘画

相关参数设置如下:

  • 控制类型:选择"Tile/Blur"

  • 预处理器:tile_resample

  • 模型:control_xxx_tile

  • 控制权重 : 设置为1

【第三步】提示词的编写

由于使用了图生图,所以我们可以根据画面的内容简单的写一下提示词。

A dog is sitting on the grass。

如果图片比较复杂,可以借助Tagger工具反推出提示词。

【第四步】大模型的选择以及图片的生成

这里我们使用一些通用的写实模型即可。我这里使用的是DreamShaper 8。可以结合自己的图片特点选择对应的大模型。

controlnet tile,stable diffusion,人工智能,AIGC,AI作画,AI绘画

点击【生成】按钮,最终生成的图片效果如下。

controlnet tile,stable diffusion,人工智能,AIGC,AI作画,AI绘画

对比一下使用tile模型处理前后的区别。

controlnet tile,stable diffusion,人工智能,AIGC,AI作画,AI绘画

三. 应用场景2:增加细节

我们直接使用上面生成图片,在文生图中使用tile模型对图片进行处理一下。

controlnet tile,stable diffusion,人工智能,AIGC,AI作画,AI绘画

我们看一下生成的图片效果,图片增加了更多的细节。

controlnet tile,stable diffusion,人工智能,AIGC,AI作画,AI绘画

对比一下使用tile模型处理前后的区别。controlnet tile,stable diffusion,人工智能,AIGC,AI作画,AI绘画

下面我们添加一些提示词看一下效果。我们在提示词中添加"被五颜六色的鲜花环绕"。

best quality,masterpiece,A dog is sitting on the grass,((surrounded by colorful flowers:1.2)),

controlnet tile,stable diffusion,人工智能,AIGC,AI作画,AI绘画

再换一下提示词,在提示词中添加"冬天,在雪地里"。

best quality,masterpiece,A dog is sitting in the snow,((winter,It is snowing:1.2)),

controlnet tile,stable diffusion,人工智能,AIGC,AI作画,AI绘画

三. 应用场景3:修改细节(局部调整)

controlnet tile,stable diffusion,人工智能,AIGC,AI作画,AI绘画

我们在提示词中添加头发的颜色"红色头发"。

a super beautiful Chinese girl,very delicate features,long hair,delicate skin,big eyes,

white sweater,necklace,((red hair:1.2)),

standing in the street,upper body,

生成的图片效果如下:

controlnet tile,stable diffusion,人工智能,AIGC,AI作画,AI绘画

从上面生成的图片可以看出,tile模型成功地修改了图片的细节。但是tile模型的实现机制是是对图像进行重绘,并不是局部修改,所以整个图像上还是会有些细微的变化。

关于ControlNet的tile模型,这是一个非常重要的模型之一,有很多的应用场景,各种不同玩法,后续还会继续介绍。

写在最后

感兴趣的小伙伴,赠送全套AIGC学习资料,包含AI绘画、AI人工智能等前沿科技教程和软件工具,具体看这里。

controlnet tile,stable diffusion,人工智能,AIGC,AI作画,AI绘画

AIGC技术的未来发展前景广阔,随着人工智能技术的不断发展,AIGC技术也将不断提高。未来,AIGC技术将在游戏和计算领域得到更广泛的应用,使游戏和计算系统具有更高效、更智能、更灵活的特性。同时,AIGC技术也将与人工智能技术紧密结合,在更多的领域得到广泛应用,对程序员来说影响至关重要。未来,AIGC技术将继续得到提高,同时也将与人工智能技术紧密结合,在更多的领域得到广泛应用。

controlnet tile,stable diffusion,人工智能,AIGC,AI作画,AI绘画

一、AIGC所有方向的学习路线

AIGC所有方向的技术点做的整理,形成各个领域的知识点汇总,它的用处就在于,你可以按照下面的知识点去找对应的学习资源,保证自己学得较为全面。

controlnet tile,stable diffusion,人工智能,AIGC,AI作画,AI绘画

controlnet tile,stable diffusion,人工智能,AIGC,AI作画,AI绘画

二、AIGC必备工具

工具都帮大家整理好了,安装就可直接上手!
controlnet tile,stable diffusion,人工智能,AIGC,AI作画,AI绘画

三、最新AIGC学习笔记

当我学到一定基础,有自己的理解能力的时候,会去阅读一些前辈整理的书籍或者手写的笔记资料,这些笔记详细记载了他们对一些技术点的理解,这些理解是比较独到,可以学到不一样的思路。
controlnet tile,stable diffusion,人工智能,AIGC,AI作画,AI绘画
controlnet tile,stable diffusion,人工智能,AIGC,AI作画,AI绘画

四、AIGC视频教程合集

观看全面零基础学习视频,看视频学习是最快捷也是最有效果的方式,跟着视频中老师的思路,从基础到深入,还是很容易入门的。

controlnet tile,stable diffusion,人工智能,AIGC,AI作画,AI绘画

五、实战案例

纸上得来终觉浅,要学会跟着视频一起敲,要动手实操,才能将自己的所学运用到实际当中去,这时候可以搞点实战案例来学习。
controlnet tile,stable diffusion,人工智能,AIGC,AI作画,AI绘画文章来源地址https://www.toymoban.com/news/detail-832159.html

controlnet tile,stable diffusion,人工智能,AIGC,AI作画,AI绘画 若有侵权,请联系删除

到了这里,关于Stable Diffusion【ControlNet】:改善画质细节的tile模型的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • 在矩池云运行 Stable Diffusion web UI,使用v1.5模型和 ControlNet 插件

    今天给大家介绍下如何在矩池云使用 Stable Diffusion web UI v1.5 模型和 Stable Diffusion ControlNet 插件。 租用机器需要选择内存大于8G的机器,比如 A2000,不然 Stable Diffusion web UI 启动加载模型会失败。(Killed 内存不足) 点击租用按钮,进入镜像筛选页面,点击右侧蓝色 Stable Diffusio

    2024年02月01日
    浏览(41)
  • AI绘画stablediffusion comfyui SDXL Controlnet模型终于全了 tile来了

    以前一直在直播中吐槽说不建议大家用SDXL生态,即便已经出来了Turbo,即便除了SDXLLighting等等周边但是我们最最喜欢用的controlnet还是补全,即便是现在也不算完全意义的全,但是最起码我们今天呢能够带来第一个期待已久的tile模型,和隐藏款的QRmonsterXL(小声使用,别人还不

    2024年04月25日
    浏览(151)
  • (十六) AIGC、AI绘画、SD-WebUI、本地部署、Stable-Diffusion本地模型、最新Controlnet扩展

    1、简介 AI绘画的工具网站很多,大部分收费/限制数量,而且速度很慢,如果部署本地的模型,不仅免费无限制、还可以提高出图效率,随意生成自己想象中的图,部署中发现有各种各样的环境配置问题,无法正确运行。 本博整理了SD-WebUI的整合包(Windows环境下),包括启动器

    2024年02月13日
    浏览(79)
  • Stable Diffusion stable-diffusion-webui ControlNet Lora

    Stable Diffusion用来文字生成图片,ControlNet就是用来控制构图的,LoRA就是用来控制风格的 。 国内加速官网: mirrors / AUTOMATIC1111 / stable-diffusion-webui · GitCode 安装参考: Stable Diffusion安装与常见错误(+Lora使用)2023年最新安装教程_cycyc123的博客-CSDN博客 保姆级教程:从0到1搭建St

    2024年02月09日
    浏览(78)
  • Stable Diffusion使用controlnet报错

    1、问题描述,使用controlnet时报错如下 error running process: G:\\0111stable-diffusion-webuiextensionssd-webui-controlnetscriptscontrolnet.py Traceback (most recent call last):   File \\\"G:\\0111stable-diffusion-webuimodulesscripts.py\\\", line 418, in process     script.process(p, *script_args)   File \\\"G:\\0111stable-diffusion-webuiextensi

    2024年02月09日
    浏览(52)
  • Stable Diffusion中的ControlNet插件

    ControlNet 的中文就是控制网,本质上是Stable Diffusion的一个扩展插件,在2023年2月份由斯坦福大学的研究人员开发出来的,能够使创作者轻松地控制AI图像和视频中的对象。它将根据边缘检测、草图处理或人体姿势等各种条件来控制图像生成。ControlNet可以概括为一种简单的稳定

    2024年02月09日
    浏览(52)
  • 详细解读ControlNet Stable Diffusion代码

    Diffusion models代码解读:入门与实战 前言 :ControlNet的原理部分可以看我之前写的博客《Image-to-Image任务的终结者:详解ControlNet原理与代码》 ,这篇博客主要讲解一下diffusers版本的ControlNet代码,从代码中洞悉原理,加深理解。 目录 原理详解

    2024年02月12日
    浏览(51)
  • 精讲stable diffusion的controlNet插件

    controlNet插件是stable diffusion的一个重要插件,甚至可以说正是因为有了controlNet插件,stable diffusion才会具有midjourney所不具备的独特魅力! 我们今天就一起来学习下controlNet插件的安装和每个模型的用法 插件主页 独立的controlNet程序(可独立运行,不依赖于stable diffusion)主页:

    2024年02月06日
    浏览(37)
  • 【Stable Diffusion】ControlNet基本教程(三)

    接上篇【Stable Diffusion】ControlNet基本教程(二),本篇再介绍两个ControlNet常见的基本用法,更多用法欢迎关注博主,博主还会更新更多有趣的内容。 3.3更换物体皮肤 有时,我们不想改变物体的轮廓,只想改变物体表面的皮肤,例如,同一种鞋型,我们让它生成不同的鞋子表

    2024年02月09日
    浏览(38)
  • Stable Diffusion — ControlNet 超详细讲解

    ControlNet 最近非常火🔥!ControlNet 和 Stable Diffusion 的结合使 Stable Diffusion 能够接受指导图像生成过程的条件输入,从而增强了 Stable Diffusion 的性能。今天为大家深入剖析 ControlNet 的工作原理。 ControlNet 是一个控制预训练图像扩散模型(例如 Stable Diffusion)的神经网络。它允许输

    2024年02月09日
    浏览(42)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包