【论文笔记】SwinIR: Image Restoration Using Swin Transformer

这篇具有很好参考价值的文章主要介绍了【论文笔记】SwinIR: Image Restoration Using Swin Transformer。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

声明

不定期更新自己精度论文,通俗易懂,初级小白也可以理解

涉及范围:深度学习方向,包括 CV、NLP、Data Fusion、Digital Twin

【论文笔记】SwinIR: Image Restoration Using Swin Transformer

论文标题:SwinIR: Image Restoration Using Swin Transformer

论文链接:https://arxiv.org/abs/2108.10257v1

论文代码:https://github.com/jingyunliang/swinir

发表时间:2021年8月

创新点

1.本文提出了一种基于Swin Transformer的图像修复模型SwinIR,该模型在图像超分辨率、图像去噪和JPEG压缩伪影减少等任务上可以胜过当前的CNN-based图像修复方法; 

2.SwinIR具有内容与注意力权重交互的优点,可以进行长距离依赖建模和更好的参数性能表现;

3. SwinIR具有三个模块:浅层特征提取、深层特征提取和高质量图像重构,其中深特征提取模块包含多个residual Swin Transformer blocks,利用了局部注意力和交叉窗口互动。

Abstract

图像恢复是一个长期存在的低层次视觉问题,旨在从低质量图像(例如缩小、噪声和压缩图像)中恢复高质量图像。虽然现有的图像恢复方法基于卷积神经网络,但在高级视觉任务上表现出色的Transformer方法却很少被尝试。在本文中,作者提出了一个基于Swin Transformer的图像恢复强基线模型SwinIR。SwinIR由浅层特征提取、深层特征提取和高质量图像重建三个部分组成。特别地,深层特征提取模块由多个残差Swin Transformer块(RSTB)组成,每个块都有几个Swin Transformer层和一个残差连接。在三个代表性任务上进行了实验:图像超分辨率(包括经典、轻量级和实际图像超分辨率)、图像去噪(包括灰度和彩色图像去噪)和JPEG压缩伪影去除。实验结果表明,SwinIR在不同任务上的表现均优于现有的最先进方法,提高了0.14∼0.45dB,同时可以将参数总数减少高达67%。

Method

【论文笔记】SwinIR: Image Restoration Using Swin Transformer

本文提出的图像恢复模型SwinIR主要包括三个模块:浅层特征提取、深层特征提取和高质量图像重建模块。

具体步骤如下:

1. 浅层特征提取模块:使用卷积层来提取浅层特征,并将其直接传递到重建模块中,以保留低频信息。

2. 深层特征提取模块:主要由残差Swin Transformer块(RSTB)组成,每个RSTB利用多个Swin Transformer层进行局部注意力和跨窗口交互。

3. 高质量图像重建模块:将浅层和深层特征融合在一起,通过反卷积操作来生成高质量的恢复图像。

总之,SwinIR相较于常见的基于CNN的图像修复模型,SwinIR具有诸多优势,如基于内容的交互、长程依赖模拟、更好的性能等。

Experiments

实验目标:在基准数据集上进行经典图像超分辨率的定量比较与最先进的方法。最佳和次佳性能分别以红色和蓝色显示

实验结果:SwinIR效果最优

 文章来源地址https://www.toymoban.com/news/detail-424216.html

【论文笔记】SwinIR: Image Restoration Using Swin Transformer

实验目标:在基准数据集上进行轻量级图像超分的平均PSNR / SSIM与现有技术方法的定量比较。最佳和次佳性能分别以红色和蓝色表示

实验结果:SwinIR效果最优

【论文笔记】SwinIR: Image Restoration Using Swin Transformer

【论文笔记】SwinIR: Image Restoration Using Swin Transformer

 

到了这里,关于【论文笔记】SwinIR: Image Restoration Using Swin Transformer的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • 【论文笔记】图像修复MPRNet:Multi-Stage Progressive Image Restoration 含代码解析

    目录 一、介绍 二、使用方法 1.推理 2.训练 三、MPRNet结构 1.整体结构 2.CAB(Channel Attention Block) 3.Stage1 Encoder 4.Stage2 Encoder 5.Decoder 6.SAM(Supervised Attention Module) 7.ORSNet(Original Resolution Subnetwork) 四、损失函数 1.CharbonnierLoss 2.EdgeLoss           论文地址:https://arxiv.org/pdf/2102.02808.pdf    

    2024年02月16日
    浏览(32)
  • Learning Enriched Features for Fast Image Restoration and Enhancement 论文阅读笔记

    这是2022年TPAMI上发表的大名鼎鼎的MIRNetv2,是一个通用的图像修复和图像质量增强模型,核心是一个多尺度的网络 网络结构整体是残差的递归,不断把残差展开可以看到是一些残差块的堆叠。核心是多尺度的MRB。网络用的损失函数朴实无华: MRB的核心是RCB和SKFF两个模块,先

    2024年02月16日
    浏览(29)
  • Generative Diffusion Prior for Unified Image Restoration and Enhancement 论文阅读笔记

    这是CVPR2023的一篇用diffusion先验做图像修复和图像增强的论文 之前有一篇工作做了diffusion先验(Bahjat Kawar, Michael Elad, Stefano Ermon, and Jiaming Song, “Denoising diffusion restoration models,” arXiv preprint arXiv:2201.11793, 2022. 2, 4, 6, 7),但这个模型只能做线性的退化,对于暗图增强这种非线性

    2024年02月15日
    浏览(39)
  • 【读论文】SwinFusion: Cross-domain Long-range Learning for General Image Fusion via Swin Transformer

    论文:https://ieeexplore.ieee.org/document/9812535 如有侵权请联系博主 Swin Transformer 长期依赖性、全局信息 跨域融合 2022年发表在 IEEE/CAA JOURNAL OF AUTOMA TICA SINICA的一篇文章,该篇论文的作者仍然是我们熟悉的FusionGAN的作者。 简单来说,该篇论文提出了一个基于CNN和Swin Transformer来提取

    2024年02月16日
    浏览(25)
  • 论文阅读《Efficient and Explicit Modelling of Image Hierarchies for Image Restoration》

    论文地址:https://openaccess.thecvf.com/content/CVPR2023/papers/Li_Efficient_and_Explicit_Modelling_of_Image_Hierarchies_for_Image_Restoration_CVPR_2023_paper.pdf 源码地址:https://github.com/ofsoundof/GRL-Image-Restoration   图像复原任务旨在从低分辨率的图像(模糊,子采样,噪声污染,JPEG压缩)中恢复高质量的图

    2024年02月03日
    浏览(41)
  • 【论文阅读笔记】Pre-trained Universal Medical Image Transformer

    Luo L, Chen X, Tang B, et al. Pre-trained Universal Medical Image Transformer[J]. arXiv preprint arXiv:2312.07630, 2023.【代码开源】 【论文概述】 本文介绍了一种名为“预训练通用医学图像变换器(Pre-trained Universal Medical Image Transformer,简称PUMIT)”的新型算法,该算法旨在解决标记医学图像数据稀缺

    2024年02月04日
    浏览(33)
  • 有可能代替Transformer吗?Image as Set of Points 论文阅读笔记

    写在前面   新的一周又开始了,冲冲冲~   这一篇文章提出了新的范式,不知道未来会不会成为主流的能并行 ResNet、Transformer 的网络。本文源于 B 站大佬的一个视频分享,遂找来这篇文章精读下。 论文地址:Image as Set of Points 代码地址:https://github.com/ma-xu/Context-Cluster 收

    2023年04月08日
    浏览(46)
  • 李沐论文精读系列二:Vision Transformer、MAE、Swin-Transformer

    传送门: 李沐论文精读系列一: ResNet、Transformer、GAN、BERT 李沐论文精读系列三:MoCo、对比学习综述(MoCov1/v2/v3、SimCLR v1/v2、DINO等) 李沐论文精读系列四:CLIP和改进工作串讲(LSeg、GroupViT、VLiD、 GLIPv1、 GLIPv2、CLIPasso) 论文名称: An Image Is Worth 16x16 Words: Transformers For Imag

    2024年01月17日
    浏览(35)
  • 论文笔记 | 【CVPR-2023】Activating More Pixels in Image Super-Resolution Transformer

    抛砖引玉了,如有不同意见欢迎讨论。 在超分Transformer中激活更多像素。 澳门大学、中科大、上海人工智能实验室的,董超老师的团队。 CVPR2023。 LAM:一种为SR任务设计的归因方法,能显示模型在进行超分辨率重建的过程中哪些像素起到了作用。一般来说,被利用像素的范围

    2024年02月11日
    浏览(32)
  • 【论文阅读】Swin Transformer Embedding UNet用于遥感图像语义分割

    Swin Transformer Embedding UNet for Remote Sensing Image Semantic Segmentation 全局上下文信息是遥感图像语义分割的关键 具有强大全局建模能力的Swin transformer 提出了一种新的RS图像语义分割框架ST-UNet型网络(UNet) 解决方案:将Swin transformer嵌入到经典的基于cnn的UNet中 ST-UNet由Swin变压器和CNN并联

    2024年02月08日
    浏览(43)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包