生成网络论文阅读:DDPM(一):Denoising Diffusion Probabilistic Models论文概述

这篇具有很好参考价值的文章主要介绍了生成网络论文阅读:DDPM(一):Denoising Diffusion Probabilistic Models论文概述。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

1.论文的整体逻辑是什么

生成网络论文阅读:DDPM(一):Denoising Diffusion Probabilistic Models论文概述

  • 1.我们可以看到最终通过不断的加入噪声,原始的图片变成了一个完全混乱的图片,这个完全混乱的图片就可以当成一个随机生成的噪声图片。(从x0开始不断加入噪声到xt,xt只是一个带有噪声的图片,再逐渐加入更多噪声,到XT的时候图片已经完全变成一个噪声图片了。)
  • 2.类似的我们可以想到如何从一张随机生成的噪声图片得到生成的图片,我们只需要知道在这个完全混乱的噪声图片当中如何不断拿去刚刚加入的噪声,让其变得不混乱,逐步更加接近真实图片,就可以得到最开始的图片
  • 3.所以这里面如何预测噪声就成了我们的关键需求,人是算不出来的,所以我们需要借助网络来帮忙。
  • 4.为了让网络预测这些噪声,我们先要知道这些噪声(噪声就是标签),为了训练我们需要在一开始加入噪声的时候。逐个存下来,对网络进行训练,让网络有预测噪声的能力
  • 5.最终通过网络学习的方法得到每次获得的噪声帮助我们回推。

理解一下这个过程:

  • 1.我们加入噪声的时候虽然是随机加入的噪声,反向思考,拿去噪声并不是随机的,而是有目的性的拿去,有目的的不断拿去噪声,才导致了最终图片的生成;
  • 2.只要网络学会了这种有目的的拿去,就可以生成对应的图片,所以网络为:输入xt,输出xt变成xt-1需要被有目的拿去的噪声。

这里面我们注意一些其他细节:

  • 1)去的时候和回来的时候,噪声并不太一样。去的时候噪声是随便的,什么都可以的。回来的时候噪声必须是结合当前时刻图片的情况,专门设计的一种特定的噪声。
  • 2)为什么要预测?这里其实我们训练的时候通过给正常图片加入噪声得到的训练模型其实只是在真正的噪声图片当中占一小部分,我们需要预测更多的噪声图片要怎么回来。所以其实也是一个检验模型泛化能力的过程。
  • 3)这里用能力更强的网络(例如transformer),可能会让生成的图片更加接近训练集,大约就是因为噪声预测的太准了,一下子就回到原始训练数据了,所以有时候不是很准,也许效果更具有多样性。
    生成网络论文阅读:DDPM(一):Denoising Diffusion Probabilistic Models论文概述

2.具体怎么加入噪声和去掉噪声的

2.1加入参数的大致指导思想

  • 1.加入噪声的过程需要是噪声逐渐增大的:
    1) 因为加入噪声的目标是让图片变的更加混乱,一开始图片还比较完整的清晰的时候我们稍微加一点噪声图片就变得更加混乱了。但是,后面的时候图片已经变的十分混乱了,所以我们需要更多的噪声来干扰这个图片
    2)我个人认为也有这么一个考虑,在之后生成的过程中需要回推,回推刚开始的时候是从噪声开始的,如果步子更大一点,好像也没有太大的问题,可以加速训练的进行;但是在最后调整的时候,稍微错一点可能就会出现大问题,所以需要细致的调整。而这个快慢变化大致和我们加入噪声的时候大致趋势是一致的,因此需要让加入噪声的时候速度逐渐增加。
  • 2.加入噪声的时候,每个图片之间具有马可夫性:
    马可夫性就是当前时刻的状态只和上一时刻的状态有关,和其他时刻无关。这是显然的,因为这一时刻的图片是由上一时刻的图片加入噪声之后得到的,显然之后上一时刻有关,和上上时刻的关系不大,因为他们之间还隔了一个噪声的加入。

2.2具体怎么加入噪声

生成网络论文阅读:DDPM(一):Denoising Diffusion Probabilistic Models论文概述

  • ①式是一个控制参数,这里的β会逐渐增大来使得噪声的影响越来越大(原因上面说了)。
  • ②式是一个具体怎么加入噪声的过程,这里为什么是加上根号的主要目标是为了方便推算出来③式的时候简化计算。
  • ③式是从x0直接推算到最终的xt噪声的式子。
  • x1x2x3x4…xt是从最开始的完美图片到最后的噪声。
  • z1z2z3…zt是每次加入的噪声
  • (1)到(2)的推算是合并两个正态分布的噪声。

2.3怎么去掉噪声(问题最后转化为怎么估算噪声)

我们想要去掉噪声,其实就是从xt推算出来xt-1
生成网络论文阅读:DDPM(一):Denoising Diffusion Probabilistic Models论文概述

  • 这里的f(x)指的是概率分布
  • ①式是我们传统贝叶斯公式的结果
  • ②式是①式当中的xt和xt-1的分布没法直接计算,所以,额外引入了一个x0。
  • ③式是我们化简了一下子上面这个式子。
  • ④式是我们根据正态分布的分布函数情况,计算的均值和方差
  • ⑤式是我们依据估计的内容(其实是用xt粗略的估计了x0)巧妙的消去x0.

2.4怎么估计噪声(实际上怎么训练)

  • 作者只是使用了一个简单的Unet来完成任务,训练过程大约如下
    1:表示重复多轮
    2:表示我们在图片当中随机选一部分
    3:表示我们每次训练的时候不是这张图片全过程当中的每一个点都进行预测,只是选择了其中一部分进预测
    4:取一个噪声
    5:这里是作者构造损失的地方,我们质疑看前面的是不带θ的是实际上加入的噪声值,后面带有θ的是在训练的模型。输入的其实前面是xt的估计值,后面的t是因为我们在输入的时候每一次加入的噪声大小不同,越往后越大,所以我们预测噪声的时候也要跟第几次加入有关因此设置了这个输入。
  • 回推过程如下
    3:这里其实就是最后一次不加噪声了。
    4:只有这里最关键,其实就是我们上面推算出来的公式。
    生成网络论文阅读:DDPM(一):Denoising Diffusion Probabilistic Models论文概述
  • 每次我们都是输入当前这个xt,使用这个Unet预测一个噪声zt,每次使用的Unet是一样的,只是输入不太一样。

3.和其他的比较和

3.1 和GAN流程的区别

比较起来看的话,GAN网络是全局的函数求解,而diffusion更倾向于一个求导函数的过程,diffusion通过拟合一个导函数进而知道每一步怎么前进,最终完成图像的估计。

4.其他细节

4.1只预测噪声的均值,这样可以帮助稳定训练。

具体来说这个细节是:文章来源地址https://www.toymoban.com/news/detail-448025.html

  • 1.扩散模型预测的其实是扩散模型只预测加入的噪声,也就是只预测一个高斯噪声;
  • 2.既然预测的是高斯噪声,可以直接预测均值和方差;
  • 3.DDPM作者发现可以直接固定这个噪声的均值,只预测均值就能取得很好的效果;
  • 4.后面也有人预测噪声的方差,虽有效果提升,但是这种方式开销较大。

到了这里,关于生成网络论文阅读:DDPM(一):Denoising Diffusion Probabilistic Models论文概述的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • 论文阅读_扩散模型_DDPM

    英文名称: Denoising Diffusion Probabilistic Models 中文名称: 去噪扩散概率模型 论文地址: http://arxiv.org/abs/2006.11239 代码地址1: https://github.com/hojonathanho/diffusion (论文对应代码 tensorflow) 代码地址2: https://github.com/AUTOMATIC1111/stable-diffusion-webui stable-diffusion-webui/modules/models/diffusion/ddpm_edi

    2024年02月09日
    浏览(45)
  • 论文笔记DIGRESS: DISCRETE DENOISING DIFFUSION FORGRAPH GENERATION

            一些扩散模型的文章: https://zhuanlan.zhihu.com/p/640138441 https://blog.csdn.net/qq_43505867/article/details/130983606 https://blog.csdn.net/qq_51392112/article/details/129326444 目录 Abstract 1 Introduction 2 Diffusion models 3 DISCRETE DENOISING DIFFUSION FOR GRAPH GENERATION 3.1迭代过程与逆去噪迭代 3.2去噪网络参数

    2024年02月04日
    浏览(46)
  • 《Masked Image Training for Generalizable Deep Image Denoising》——CVPR23论文阅读笔记

    Project page: https://github.com/haoyuc/MaskedDenoising 前提:在捕获和存储图像时,设备不可避免地会引入噪声。减少这种噪声是一项关键任务,称为图像去噪。深度学习已经成为图像去噪的事实方法,尤其是随着基于Transformer的模型的出现,这些模型在各种图像任务上都取得了显著的最

    2024年03月15日
    浏览(64)
  • 生成式 AI - Diffusion 模型 (DDPM)原理解析(1)

    来自 论文《 Denoising Diffusion Probabilistic Model》(DDPM) 论文链接:https://arxiv.org/abs/2006.11239 Hung-yi Lee 课件整理 简单地介绍diffusion model 的基本概念,diffusion model有很多不同的变形,现在比较成功的使用diffusion model实现的图像生成的系统,比如阿里、Google的系统基本上都是用差不

    2024年03月13日
    浏览(60)
  • 论文阅读:通过时空生成卷积网络合成动态模式(重点论文)

    原文链接 github code 介绍视频 视频序列包含丰富的动态模式,例如在时域中表现出平稳性的动态纹理模式,以及在空间或时域中表现出非平稳的动作模式。 我们证明了时空生成卷积网络可用于建模和合成动态模式。 该模型定义了视频序列上的概率分布,对数概率由时空ConvN

    2024年01月19日
    浏览(44)
  • SRDiff: Single Image Super-Resolution with Diffusion Probabilistic Models 论文笔记

    由于大多数基于卷积神经网络或者Attention机制的超分辨模型大部分都是PSNR主导的,即用PSNR作为损失函数进行训练,这会导致超分辨图像过度平滑的问题,也就是超分辨后的图像高频信息不能很好保留,并且超分辨的图像较为固定,对于超分辨这种不适定问题来说不太合适。

    2024年02月11日
    浏览(47)
  • 一文速览扩散模型优化过程:从DDPM到条件生成模型Stable Diffusion

    目前AIGC可以说是整个人工智能领域的当红炸子鸡,而Diffusion Model(扩散模型)正是目前各项图像生成式应用的主要架构。本人并不主要研究图像生成领域,不过由于项目需要也对其进行过一些调研,故写下这篇文章进行分享与记录。本文会从最简单的扩散模型开始讲起,然后

    2024年02月09日
    浏览(53)
  • 论文阅读【自然语言处理-预训练模型2】BART:Denoising Sequence-to-Sequence Pre-training for Natural Language Generation

    BART: Denoising Sequence-to-Sequence Pre-training for Natural Language Generation, Translation, and Comprehension BART: 用于自然语言生成、翻译和理解的去噪序列对序列预训练 【机构】:Facebook AI 【作者】:Mike Lewis, Yinhan Liu, Naman Goyal, Marjan Ghazvininejad, Abdelrahman Mohamed, Omer Levy, Ves Stoyanov, Luke Zettlemoye

    2024年02月03日
    浏览(50)
  • 【论文阅读 09】融合门控自注意力机制的生成对抗网络视频异常检测

            2021年 中国图象图形学报 背景: 视频异常行为检测是智能监控技术的研究重点,广泛应用于社会安防领域。当前的挑战之一是如何提高异常检测的准确性,这需要有效地建模视频数据的空间维度和时间维度信息。生成对抗网络(GANs)因其结构优势而被广泛应用于视

    2024年02月03日
    浏览(40)
  • 《3D Diffusion Policy》论文阅读

    本文仅是个人对该文章的阅读总结,并不能全篇概括作者的精华,还需大家详细阅读原文 --------------------------------------------------------------------------------------------------------------------------------- 问题: 模仿学习为教授机器人灵巧技能提供了一种高效途径,但是学习复杂的、具有普

    2024年04月11日
    浏览(35)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包