【论文笔记】—低照度图像增强—Unsupervised—EnlightenGAN—2019-TIP

这篇具有很好参考价值的文章主要介绍了【论文笔记】—低照度图像增强—Unsupervised—EnlightenGAN—2019-TIP。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

【论文介绍】

EnlightenGan是第一个成功地将非配对训练引入微光图像增强的工作。 

【题目】:EnlightenGAN: Deep Light Enhancement Without Paired Supervision

【DOI】:10.1109/TIP.2021.3051462

【时间】:2019-06-17上传于arxiv
【会议】:2019 IEEE Transactions on Image Processing(TIP)
【机构】:美国-得克萨斯大学(University of Texas System)

【论文链接】:https://arxiv.org/abs/1906.06972
【代码链接】:https://github.com/VITA-Group/EnlightenGAN

【提出问题】

基于深度学习的方法在图像恢复和增强方面取得了显著的成功,但是在缺乏配对训练数据的情况下它们仍然具有竞争力吗? 

【解决方案】

使用从输入本身提取的信息来规范非配对训练,而不是使用ground truth数据监督学习,提出了一个高效的无监督生成对抗网络,称为 EnlightenGAN,可以在没有低光/正常光图像对的情况下进行训练,可用于增强来自不同领域的真实世界低光图像。

【创新点】

  1. 无监督:EnlightenGan是第一个成功地将非配对训练引入微光图像增强的工作。
  2. 全局-局部鉴别器:除了全局改善光照之外,自适应地增强局部区域。
  3. 自正则化的思想:由自特征保持损失和自正则化注意力机制共同实现。

【EnlightenGAN网络构架】

  1. 采用自调整注意力引导的 U-Net 作为生成器。
  2. 使用双判别器来引导全局和局部信息。
  3. 使用自特征保留损失来指导训练过程并保持纹理和结构。
  4. 利用低光输入的照度信息作为深度特征每一层的自规则化注意图来规范无监督学习。

【论文笔记】—低照度图像增强—Unsupervised—EnlightenGAN—2019-TIP

1、自调整注意力引导的U-Net生成器 

  1. 取输入RGB图像的照明通道 I,将其归一化为[0,1],然后使用1-I(元素差异)作为自正则化 attention map。
  2. 然后,resize attention map 的大小以适应每个 feature map,并将其与所有中间 feature map 以及输出图像相乘。
  3. 每个卷积块有两个3×3卷积层,然后是 BN 和 Leakyrelu。
  4. 在上采样阶段,用一个双线性上采样层和一个卷积层代替标准的反卷积层,以减轻伪影。

【论文笔记】—低照度图像增强—Unsupervised—EnlightenGAN—2019-TIP

U-Net通过提取不同深度层的多层次特征,保留了丰富的纹理信息,并利用多尺度上下文信息合成高质量的图像。

【论文笔记】—图像分割—U-Net—2015-MICCAI_chaikeya的博客-CSDN博客

2、全局-局部判别器

【论文笔记】—低照度图像增强—Unsupervised—EnlightenGAN—2019-TIP

动机:采用对抗性损失来最小化真实和输出正常光分布之间的距离。

问题:图像级普通鉴别器在空间变化的光图像上经常失败。如果输入图像有一些局部区域需要与其他部分不同地增强,例如,整体黑暗背景中的小亮区域,单独的全局图像鉴别器通常无法提供所需的自适应性。

解决方案:受先前工作 [37] 的启发,除了全局改善光照之外,为了自适应地增强局部区域,提出了一种新颖的全局-局部鉴别器结构,两者都使用 PatchGAN 进行真假鉴别。

局部判别器:从输出和真实正常光图像中随机裁剪局部块,并学习区分它们是真实的(来自真实图像)还是假的(来自增强的输出)

全局鉴别器:利用最近提出的相对论鉴别器结构[38],它估计真实数据比假数据更真实的概率,并指导生成器合成比真实图像更真实的假图像。 相对论判别器的标准函数是:

【论文笔记】—低照度图像增强—Unsupervised—EnlightenGAN—2019-TIP

【损失函数】 

1、对抗损失 

采用对抗性损失来最小化真实和输出正常光分布之间的距离。 

其中D表示鉴别器的网络,xr和xf分别从真假分布中采样,σ 表示sigmoid函数。我们稍微修改相对论鉴别器,用最小二乘GAN (LSGAN) [39] 损失代替sigmoid函数。最后,全局鉴别器D和生成器G的损失函数为:

【论文笔记】—低照度图像增强—Unsupervised—EnlightenGAN—2019-TIP

 对于局部鉴别器,每次从输出和真实图像中随机裁剪 5 个patch。 这里采用原始的 LSGAN 作为对抗性损失,如下:

【论文笔记】—低照度图像增强—Unsupervised—EnlightenGAN—2019-TIP

2、自特征保留损失

自规范化对我们的模型成功至关重要,因为没有强大的外部监督形式可用的非配对设置。

感知损失:

为了限制感知相似性,Johnson等人[40]通过采用预先训练的VGG来建模图像之间的特征空间距离,提出了感知损失,这被广泛应用于许多低级视觉任务[28],[41]。通常的做法是限制输出图像其真实图像之间的提取特征距离。 

在未配对设置中限制输入低光其增强的正常光输出之间的 VGG 特征距离。并称其为自特征保留损失,以强调其自正则化效用,在增强前后将图像内容特征保留给自身自特征保持损失 LSFP 定义为:

【论文笔记】—低照度图像增强—Unsupervised—EnlightenGAN—2019-TIP

其中 I^L 表示输入低光图像,G(I^L) 表示生成器的增强输出。φi,j 表示从在 ImageNet 上预训练的 VGG-16 模型中提取的特征图。i 代表它的第 i 个最大池化,j 代表它在第 i 个最大池化层之后的第 j 个卷积层。Wi,j 和 Hi,j 是提取的特征图的维度。 默认情况下,i = 5,j = 1。 

3、总损失 

对于局部鉴别器,来自输入和输出图像的裁剪的局部块也通过类似定义的自特征保持损失Llocal SFP来正则化。此外,在输入LSFP和LLocal SFP之前,在VGG特征图之后添加了一个实例归一化层[43],以稳定训练。因此,训练启发的总损失函数写为: 

【论文笔记】—低照度图像增强—Unsupervised—EnlightenGAN—2019-TIP

【数据集】

训练集:从 [47], [5] and also HDR sources [15], [25], 中发布的几个数据集中组装了 914 个低光和 1016 个正常光图像的混合图像,无需保留任何一对。手动检查和选择执行以去除中等亮度的图像。所有这些照片都转换为 PNG 格式并调整为 600×400 像素。

[47] Raise数据集 paper ,[5] LOL数据集 paper,[15] HDR sources paper,[25] SICE数据集 paper

低照度图像数据集_chaikeya的博客-CSDN博客

测试集:选择以前工作中使用的那些标准图像(NPE [19], LIME [21], MEF [48], DICM [49], VV, 2 etc.)。

【实验结果】

1、定量分析

表1:在整个测试集(All)和每个子集(MEF、LIME、NPE、VV、DICM)上的 NIQE 得分。 较小的 NIQE 表示较高的整体自然度。 

【论文笔记】—低照度图像增强—Unsupervised—EnlightenGAN—2019-TIP

2、定性分析 

图1:EnlightenGAN增强效果:从左到右:列1、3和5是低光输入图像;而第2、4、6列及其相应的增强图像。 

【论文笔记】—低照度图像增强—Unsupervised—EnlightenGAN—2019-TIP

图3:消融实验 

【论文笔记】—低照度图像增强—Unsupervised—EnlightenGAN—2019-TIP

图4:与其他先进方法比较

【论文笔记】—低照度图像增强—Unsupervised—EnlightenGAN—2019-TIP文章来源地址https://www.toymoban.com/news/detail-468358.html

到了这里,关于【论文笔记】—低照度图像增强—Unsupervised—EnlightenGAN—2019-TIP的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • 低照度增强--论文阅读【《Toward Fast, Flexible, and Robust Low-Light Image Enhancement》】

    介绍一篇最近看的低照度增强方面的论文——自校准照明,文中所给的方法取得了非常不错的效果,值得我们去学习和思考。 论文名称 :Toward Fast, Flexible, and Robust Low-Light Image Enhancement(实现快速、灵活和稳健的低光照图像增强) 论文信息 :由大连理工大学2022年4月发表在

    2024年02月06日
    浏览(41)
  • YOLOv8改进 | 主干篇 | 轻量级的低照度图像增强网络IAT改进YOLOv8暗光检测(全网独家首发)

    本文给大家带来的改进机制是轻量级的变换器模型: Illumination Adaptive Transformer (IAT) ,用于图像增强和曝光校正。其基本原理是通过 分解图像信号处理器(ISP)管道到局部和全局图像组件 ,从而 恢复在低光或过/欠曝光条件下的正常光照sRGB图像 。具体来说,IAT使用注意力查

    2024年04月26日
    浏览(33)
  • 【论文笔记】Language Models are Unsupervised Multitask Learners

    回顾一下第一代 GPT-1 : 设计思路是 “海量无标记文本进行无监督预训练+少量有标签文本有监督微调” 范式; 模型架构是基于 Transformer 的叠加解码器(掩码自注意力机制、残差、Layernorm); 下游各种具体任务的适应是通过在模型架构的输出后增加线性权重 W y W_{y} W y ​ 实

    2024年03月17日
    浏览(33)
  • 图像融合论文阅读:U2Fusion: A Unified Unsupervised Image Fusion Network

    @ARTICLE{9151265, author={Xu, Han and Ma, Jiayi and Jiang, Junjun and Guo, Xiaojie and Ling, Haibin}, journal={IEEE Transactions on Pattern Analysis and Machine Intelligence}, title={U2Fusion: A Unified Unsupervised Image Fusion Network}, year={2022}, volume={44}, number={1}, pages={502-518}, doi={10.1109/TPAMI.2020.3012548}} SCI A1;IF 23.6 论文地址 代码

    2024年01月17日
    浏览(35)
  • 【图像拼接/视频拼接】论文精读:Eliminating Warping Shakes for Unsupervised Online Video Stitching(StabStitch)

    第一次来请先看这篇文章:【图像拼接(Image Stitching)】关于【图像拼接论文精读】专栏的相关说明,包含专栏使用说明、创新思路分享等(不定期更新) Seam Carving for Content-Aware Image Resizing As-Rigid-As-Possible Shape Manipulation Adaptive As-Natural-As-Possible Image Stitching Shape-Preserving Half

    2024年03月24日
    浏览(36)
  • 低照度图片增强——传统算法

    光照因素一直是影响成像质量的一个关键因素,夜间等光照环境较差的条件下的图片往往细节丢失、分辨不清,信噪比低下。低照度图像增强是指通过一系列算法和技术,增强在低照度或弱光条件下拍摄的图像的可视化质量。本文主要介绍一些传统的低照度图像增强算法,给

    2024年02月08日
    浏览(28)
  • 【论文阅读笔记】UNSUPERVISED REPRESENTATION LEARNING FOR TIME SERIES WITH TEMPORAL NEIGHBORHOOD CODING

     本文提出了一种自监督框架,名为“时间邻域编码”(Temporal Neighborhood Coding,TNC),用于学习非平稳时间序列的可泛化表示。该方法利用信号生成过程的局部平滑性来定义具有平稳性质的时间邻域。通过使用去偏差对比目标,该框架通过确保在编码空间中,来自邻域内的信

    2024年02月21日
    浏览(49)
  • 图像色彩增强论文调研

    Deep Symmetric Network for Underexposed Image Enhancement with Recurrent Attentional Learning(ICCV2021) 使用对称编码器和解码器学习图像从低曝光转化到正常图片的映射方式,通过IFT(Invertible Feature Transformer)网络和提出模块RRAM学习到低曝光转化到正常图片映射关系; DPE-Deep Photo Enhancer Unpaired Le

    2024年02月11日
    浏览(29)
  • 【论文笔记】数据增强系列.1

    本文介绍简单数据增强、好处以及常见的增强方式,也介绍几篇关于数据增强的工作: CutMix(ICCV2019),ContrastMask(CVPR2022),BCP(CVPR2023)。 什么是数据增强? 数据增强是深度学习中的一种技术,它通过从现有数据生成新的训练数据来扩展原数据集。数据增强工具通过操作

    2024年02月10日
    浏览(30)
  • 低照度图像数据集

    LSRW、  https://docs.activeloop.ai/datasets 【LOL】:paper,包含低光/正常光图像的 配对 数据集  包含 500 个低光/正常光图像对。 原始图像被调整为 400×600 并转换为便携式网络图形格式。 使用三步法来消除数据集中图像对之间的错位。  【Exclusive Dark】:paper, Exclusive Dark数据集仅由

    2024年02月05日
    浏览(27)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包