Stable Diffusion原理解析-inpaint修复图片

这篇具有很好参考价值的文章主要介绍了Stable Diffusion原理解析-inpaint修复图片。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。


一、背景知识

(一)inpaint概念

  1. inpaint是Stable Diffusion仅重绘图像部分的技术,将画面中被手工遮罩的部分重新绘制;

  2. Inpaint是一项图片修复技术,大体可以理解为两步:

    • 提供一个图像,绘制一个遮罩(mask),告诉软件想要重画哪个区域,并提供图像提示词用于重画;
    • “Stable Diffusion”将根据提示词重新绘制遮罩区域。
  3. 修复实际上只是图像到图像的一个特殊情况。杂色将添加到要上色的图像部分。噪声量同样由降噪强度控制。

(二)图生图(img2img)任务

图生图任务在输入本文的基础上,再输入一张图片,SD模型将根据文本的提示,将输入图片进行重绘以更加符合文本的描述。

  • 步骤一: 在输入文本信息进行编码的同时,将原图片通过图像编码器(VAE Encoder) 生成Latent Feature(隐空间特征)作为输入;
  • 步骤二: 将上述信息输入到SD模型的 “图像优化模块” 中;
  • 步骤三: 将图像优化模块进行优化迭代后的Latent Feature输入到 图像解码器 (VAE Decoder) 中,将Latent Feature重建成像素级图。

Stable Diffusion原理解析-inpaint修复图片,AIGC阅读学习,stable diffusion,深度学习,神经网络,人工智能,AIGC

二、Stable Diffusion中inpaint的两种实现形式

(一)开源的inpaint模型:这种方式必须基于一个已经训练好的unet模型

  • 步骤一: 在输入文本信息进行编码的同时,将被mask后的图像mask图像分别通过图像编码器(VAE Encoder) 生成对应的隐含层特征;
  • 步骤二: 将隐含层中的被mask图像特征、mask图像特征与随机初始化的高斯噪声进行堆叠;
  • 步骤三: 将上述信息输入到SD模型的 “图像优化模块” 中;
  • 步骤四: 将图像优化模块进行优化迭代后的Latent Feature输入到 图像解码器 (VAE Decoder) 中,将Latent Feature重建成像素级图。

Stable Diffusion原理解析-inpaint修复图片,AIGC阅读学习,stable diffusion,深度学习,神经网络,人工智能,AIGC

(二)基于base模型inpaint

  • 步骤一: 在输入文本信息进行编码的同时,将原图片通过图像编码器(VAE Encoder) 生成隐含层特征作为输入;
  • 步骤二: 将上述信息输入到SD模型的 “图像优化模块” 中,这里图像优化模块融入了mask信息;
  • 步骤三: 将图像优化模块进行优化迭代后的Latent Feature输入到 图像解码器 (VAE Decoder) 中,将Latent Feature重建成像素级图。

Stable Diffusion原理解析-inpaint修复图片,AIGC阅读学习,stable diffusion,深度学习,神经网络,人工智能,AIGCmask信息的融入方式:
对于每个时间步:

  • img_orig:基于原图得到的img_orig
  • img:基于上个时间步降噪后得到的img
  • 将噪声图中的mask区域和原图中的非mask区域融合,得到新的噪声图,公式呈现如下:
    i m g = i m g _ o r i g ∗ m a s k + ( 1 − m a s k ) ∗ i m g img=img\_orig * mask +(1-mask) * img img=img_origmask+(1mask)img
  • 然后继续去噪声

参考:
AIGC专栏4——Stable Diffusion原理解析-inpaint修复图片为例文章来源地址https://www.toymoban.com/news/detail-789341.html

到了这里,关于Stable Diffusion原理解析-inpaint修复图片的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • CV多模态和AIGC的原理解析:从CLIP、BLIP到DALLE 3、Stable Diffusion/MDJ

    终于开写本CV多模态系列的核心主题:stable diffusion相关的了,为何执着于想写这个stable diffusion呢,源于三点 去年stable diffusion和midjourney很火的时候,就想写,因为经常被刷屏,但那会时间错不开 去年11月底ChatGPT出来后,我今年1月初开始写ChatGPT背后的技术原理,而今年2月份

    2024年02月08日
    浏览(35)
  • CV多模态和AIGC的原理解析:从CLIP、BLIP到DALLE三代、Stable Diffusion/MDJ

    终于开写本CV多模态系列的核心主题:stable diffusion相关的了,为何执着于想写这个stable diffusion呢,源于三点 去年stable diffusion和midjourney很火的时候,就想写,因为经常被刷屏,但那会时间错不开 去年11月底ChatGPT出来后,我今年1月初开始写ChatGPT背后的技术原理,而今年2月份

    2024年02月08日
    浏览(31)
  • AIGC下的CV多模态原理解析:从CLIP/BLIP到stable diffusion/Midjourney、GPT4

    终于开写本CV多模态系列的核心主题:stable diffusion相关的了,为何执着于想写这个stable diffusion呢,源于三点 去年stable diffusion和midjourney很火的时候,就想写,因为经常被刷屏,但那会时间错不开 去年11月底ChatGPT出来后,我今年1月初开始写ChatGPT背后的技术原理,而今年2月份

    2024年02月10日
    浏览(59)
  • Stable Diffusion ComfyUI 基础教程(六)图片放大与细节修复

    我们都知道文生图、图生图、局部重绘,生成的图片分辨率太小,怎么办?我们可以通过模型放大、潜在放大、非潜在放大、分块放大多种方式对图像进行放大。 放大工作流: 我们以文生图后的图片进行放大,在开始之前我们打开之前搭建的文生图基础流程 模型放大: 模型

    2024年04月27日
    浏览(28)
  • 【图像修复】论文阅读笔记 ----- 《Image inpainting based on deep learning: A review》

    原文下载链接1:https://www.sciencedirect.com/science/article/abs/pii/S0141938221000391 原文下载链接2:http://s.dic.cool/S/KSS4D4LC 本篇论文综述发表于2021年。文章总结了基于深度学习的不同类型神经网络结构的修复方法,然后分析和研究了重要的技术改进机制;从模型网络结构和恢复方法等方

    2024年02月01日
    浏览(48)
  • [stable-diffusion-art] 指北-3 inpainting

    https://stable-diffusion-art.com/inpainting_basics/ https://stable-diffusion-art.com/inpainting_basics/ inpainting的应用主要是重绘,目前的模型换衣主要还是通过lora训练特定衣服来实现的。 模型权重: v1.5的效果确实要比v1.4要好。 [emma watson: amber heard: 0.5], (long hair:0.5), headLeaf, wearing stola, vast roman p

    2024年02月08日
    浏览(33)
  • 论文阅读 | RePaint: Inpainting using Denoising Diffusion Probabilistic Models

    Lugmayr A, Danelljan M, Romero A, et al. Repaint: Inpainting using denoising diffusion probabilistic models[C]//Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition. 2022: 11461-11471. 左图展示了masked image逐步去噪的过程;右图展示了基于扩散模型的Inpainting方法生成图片的多样性。 现有方法的问

    2024年01月21日
    浏览(31)
  • 实测AIGC工作流,Stable Diffusion + Mubert 实现图片与音乐的转换生成

    社区分享了不少文本生成图像的AIGC(AI生成内容)应用的突破,图像类的生成已经是“红海”了。 我们需要寻找“蓝海”,近期出现了其他内容的突破吗? Mixlab 小杜 社区五月份介绍了 Pollinations.ai ,平台集成了文本、图像、音频、视频等多种模态的模型,近期平台功能也

    2024年02月12日
    浏览(38)
  • 【AIGC】如何在使用stable-diffusion-webui生成图片时看到完整请求参数

    通过代码调用Stable Diffusion的txt2img、img2img接口时,很多时候都不知道应该怎么传参,比如如何指定模型、如何开启并使用Controlnet、如何开启面部修复等等,在sd-webui上F12看到的请求也不是正式调用SD的请求,所以当引入新插件或需要使用新功能时,怎么传参成了一个大问题,

    2024年02月08日
    浏览(40)
  • 【AIGC】Stable Diffusion原理快速上手,模型结构、关键组件、训练预测方式

    在这篇博客中,将会用机器学习入门级描述,来介绍Stable Diffusion的关键原理。目前,网络上的使用教程非常多,本篇中不会介绍如何部署、使用或者微调SD模型。也会尽量精简语言,无公式推导,旨在理解思想。让有机器学习基础的朋友,可以快速了解SD模型的重要部分。如

    2024年02月08日
    浏览(52)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包