A Unified Conditional Framework for Diffusion-based Image Restoration

这篇具有很好参考价值的文章主要介绍了A Unified Conditional Framework for Diffusion-based Image Restoration。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

A Unified Conditional Framework for Diffusion-based Image Restoration (Paper reading)

Yi Zhang, CUHK, CN, arXiv2023, Cited:0, Code, Paper

1. 前言

最近,扩散概率模型(Diffusion Probabilistic Models,DPMs)在图像生成任务中表现出了非凡的性能,能够生成高度逼真的图像。当将DPMs用于图像恢复任务时,关键的一点在于如何整合条件信息,以引导DPMs生成准确和自然的输出,这在现有的研究中往往被忽视。在本文中,我们提出了一个基于扩散模型的统一条件框架,用于图像恢复。我们利用一个轻量级的UNet来预测初始引导,并使用扩散模型学习引导的残差部分。通过精心设计扩散模型块的基本模块和集成模块,我们将引导和其他辅助条件信息整合到每个扩散模型块中,实现了空间自适应的生成条件。为了处理高分辨率图像,我们提出了一种简单而有效的逐步分块策略,可以生成任意分辨率的图像而不会产生网格伪影。我们在三个具有挑战性的任务上评估了我们的条件框架:极低光照去噪、去模糊和JPEG恢复,并展示了它在感知质量和泛化到恢复任务方面的显著改进。

2. 整体思想

不算新的思想,用扩散模型对初始估计进行增强。本文创新点应该在扩散模型的网络上,本文是自己设计的网络,其中用到了动态卷积。

3. 方法

A Unified Conditional Framework for Diffusion-based Image Restoration
我们的目标是为图像恢复任务设计一个统一的条件框架。该框架的输入条件信息由两个组成部分组成:降质图像和辅助标量信息。降质图像表示待恢复的图像,而辅助标量信息可以包括降质类型、强度或其他与每个恢复任务相关的细节。

为了增强条件信息的整合,我们首先采用一个轻量级的U-Net来预测初始输出,如图1(左侧)所示。这个初始输出捕捉到了最终恢复图像的低频和确定性方面,这些方面更容易恢复并包含了关键的结构信息。我们将这个初始输出作为扩散模型的空间引导。结合辅助标量信息(例如降级类型、扩散时间步长),我们将它们注入到扩散模型的每个块中,从而实现对扩散模型的更好控制和引导。这种注入不仅提供了全面的上下文,还增强了我们框架的灵活性。我们采用扩散模型来捕捉初始输出的残差分布。

基本模块:在我们的方法中,我们为图像恢复任务中使用的扩散模型设计了一个基本模块。我们的目标是通过利用现有的图像恢复主干网络使模块尽可能简单。我们尽量避免使用复杂的操作符,而是采用现有的图像恢复主干网络,使其尽可能简单。对于每个块,我们使用两个卷积层。在每个卷积层之前,我们引入了LayerNorm来稳定训练过程。我们使用Swish作为激活函数。我们应用了一条捷径来实现残差学习。为了能够注入条件信息,第二个卷积核的设计是基于条件动态变化的。

条件注入模块:为了更好地将条件信息整合到块中,我们提出了一个条件整合模块(Conditional Integration Module,CIM)。在CIM中,首先将引导信息进行缩放,以匹配块内特征图的分辨率。然后,这个缩放后的引导信息通过两个卷积层,并使用SimpleGate激活函数,有效地调整通道数并生成特征图 G G G

SimpleGate(x) = sigmoid(x) * x

同时,辅助标量信息通过两个线性层分支,并在其中使用Swish激活函数进行处理,生成特征图 S S S。接下来,特征图 G G G S S S被传递给自适应核引导模块(Adaptive Kernel Guidance Module,AKGM),用于为基本模块中的第二个卷积层生成动态卷积核,如图1所示。AKGM的关键思想是自适应融合卷积核基,使每个空间位置能够根据融合的多源条件信息处理特征图。
A Unified Conditional Framework for Diffusion-based Image Restoration
如图2(左侧)所示,每个AKGM都有 N N N个可学习的卷积核基,表示为 W b ∈ R C × C × k × k W_b ∈ R^{C×C×k×k} WbRC×C×k×k,其中 C C C表示通道数, k k k表示卷积核大小。这些卷积核基经过训练,用于处理不同的情况和场景。特征图 G ∈ R H × W × N G ∈ R^{H×W×N} GRH×W×N S ∈ R 1 × 1 × N S ∈ R^{1×1×N} SR1×1×N通过逐点乘积融合生成多源融合权重 M ∈ R H × W × N M ∈ R^{H×W×N} MRH×W×N。这里, H H H W W W分别表示特征图的高度和宽度, N N N表示卷积核基的数量。对于特定位置 ( i , j ) (i,j) (ij)的融合卷积核 F ( i , j ) F(i,j) F(ij),通过线性融合该位置上的多源融合权重得到。具体而言,可以表示为:
F i , j = ∑ N − 1 b = 0 M i , j [ b ] W b F_{i,j}=\textstyle \sum_{N-1}^{b=0}M_{i,j}[b]W_b Fi,j=N1b=0Mi,j[b]Wb

4. 实验

A Unified Conditional Framework for Diffusion-based Image Restoration
A Unified Conditional Framework for Diffusion-based Image Restoration文章来源地址https://www.toymoban.com/news/detail-467709.html

到了这里,关于A Unified Conditional Framework for Diffusion-based Image Restoration的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • 【论文笔记】A Robust Diffusion Modeling Framework for Radar Camera 3D Object Detection

    原文链接:https://openaccess.thecvf.com/content/WACV2024/html/Wu_A_Robust_Diffusion_Modeling_Framework_for_Radar_Camera_3D_Object_WACV_2024_paper.html 本文使用概率去噪扩散模型的技术,提出完全可微的雷达-相机框架。使用校准矩阵将雷达点云投影到图像上后,在特征编码器和BEV下的Transformer检测解码器中

    2024年01月18日
    浏览(31)
  • 论文阅读 - Understanding Diffusion Models: A Unified Perspective

    假设给定了一个数据集 { x 1 , x 2 , x 3 , . . . , x N } {x_1, x_2, x_3, ..., x_N} { x 1 ​ , x 2 ​ , x 3 ​ , ... , x N ​ } ,在图像生成任务中,每个 x i x_i x i ​ 就是一张图片,每个点都是独立采样于真实数据分布 p ( x ) p(x) p ( x ) 的。 生成模型 的目的就是通过有限的数据集 { x i } {x_i}

    2024年02月12日
    浏览(52)
  • 好文推荐 A transformer-based representation-learning model with unified processing of multimodal input

    论文地址:https://www.nature.com/articles/s41551-023-01045-x 代码地址:https://github.com/RL4M/IRENE 基于Transformer的表示学习模型,作为临床诊断辅助工具,以统一的方式处理多模态输入。将图像与文字转化为visual tokens和text tokens,通过一个双向的跨模态注意力机制块共同学习不同信息间的

    2024年02月07日
    浏览(28)
  • MotionBERT:Unified Pretraining for Human Motion Analysis中文翻译

    源论文地址: [2210.06551] MotionBERT: Unified Pretraining for Human Motion Analysis (arxiv.org) 我们提出了一个统一的训练前框架MotionBERT,以解决人体运动分析的不同子任务,包括3D姿势估计、基于骨骼的动作识别和网格恢复。该框架能够利用各种人体运动数据资源,包括运动捕捉数据和野外

    2024年02月16日
    浏览(26)
  • 条件控制生成——diffusion模型——Adding Conditional Control to Text-to-Image Diffusion Models

      在之前的扩散模型介绍中,入门-1,主要考虑的是无条件下的图片生成,涉及到的问题主要是如何保证图片的质量,这个过程需要考虑很多的参数项,参数设定的不同会对图片的质量和多样性产生很大的影响。    能够让diffusion模型在工业界中大放异彩的模型,比如条件

    2024年02月16日
    浏览(30)
  • Adding Conditional Control to Text-to-Image Diffusion Models

    安全验证 - 知乎 知乎,中文互联网高质量的问答社区和创作者聚集的原创内容平台,于 2011 年 1 月正式上线,以「让人们更好的分享知识、经验和见解,找到自己的解答」为品牌使命。知乎凭借认真、专业、友善的社区氛围、独特的产品机制以及结构化和易获得的优质内容,

    2024年02月06日
    浏览(58)
  • Adding Conditional Control to Text-to-Image Diffusion Models——【论文笔记】

    本文发表于ICCV2023  论文地址:ICCV 2023 Open Access Repository (thecvf.com) 官方实现代码:lllyasviel/ControlNet: Let us control diffusion models! (github.com)  论文提出了一种神经网络架构ControlNet,可以将空间条件控制添加到大型的预训练文本到图像扩散模型中。ControlNet将预训练好的大型扩散模型

    2024年02月01日
    浏览(30)
  • [实体关系抽取|顶刊论文]UniRel:Unified Representation and Interaction for Joint Relational Triple Extraction

    2022.11.16|EMNLP 2022|中国科学技术大学 |原文链接|源码链接 解决实体和关系异构表示问题 解决实体-实体交互和实体-关系交互异构建模问题 通过一个串联的自然语言序列联合编码统一实体和关系的表示,同时使用一个交互映射系统来统一交互 过去(如CasRel、PRGC)都在 关

    2024年02月04日
    浏览(76)
  • 论文解析——Ascend: a Scalable and Unified Architecture for Ubiquitous Deep Neural Network Computing

    H. Liao et al., “Ascend: a Scalable and Unified Architecture for Ubiquitous Deep Neural Network Computing : Industry Track Paper,” 2021 IEEE International Symposium on High-Performance Computer Architecture (HPCA), Seoul, Korea (South), 2021, pp. 789-801, doi: 10.1109/HPCA51647.2021.00071. 计算核内cube、vector、scaler部件的指令同步 昇腾910包

    2024年03月11日
    浏览(72)
  • AI绘画后面的论文——ControlNet:Adding Conditional Control to Text-to-Image Diffusion Models

    代码:lllyasviel/ControlNet: Let us control diffusion models! (github.com) 论文地址 最近AI绘画又双叒叕进化了,前一次还只能生成二次元,这次三次元都能生成了。这次AI绘画这么火爆的原因跟下面这篇文章脱不开关系,它将AI绘画带到了一个新的高度。 我们提出了一个神经网络结构cont

    2024年02月11日
    浏览(36)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包