论文笔记:Guided filter-based multi-focus image fusion through focus region detection

这篇具有很好参考价值的文章主要介绍了论文笔记:Guided filter-based multi-focus image fusion through focus region detection。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

摘要:

多焦点图像融合作为一种高效的信息融合方法,在图像处理和计算机视觉领域受到越来越多的关注。本文提出了一种基于焦点区域检测(focus region detection)的引导滤波(guide filter)的多焦点图像融合方法。

首先,提出了一种新的焦点区域检测方法,利用引导滤波(guide filter)均值滤波(mean filter)差分算子(difference operator)得到的粗糙焦点图进行细化。

然后,通过逐像素最大规则得到初始决策图,并再次使用引导滤波优化生成最终决策图。

最后,采用逐像素加权平均规则得到融合后的图像,得到最终的决策图。

实验结果表明,该方法对不同噪声具有较强的鲁棒性,计算效率高于其他焦点检测方法。

1.引言:

近三十年来,大量的多焦点图像融合方法中,主要涉及变换域(transform domain)和空间域(spatial domain)方法。

基于变换域的方法中,是将源图像分解成不同的变换系数,根据一定的融合规则进行融合,然后通过重构融合系数生成融合图像。随着多尺度理论发展各种多尺度变换被提出,主要包括金字塔变换、小波变换、轮廓波变换、剪切波变换等。还有鲁棒主成分分析、稀疏表示、多尺度变换与稀疏表示、脉冲耦合神经网络等方法。

基于空间域的方法中,直接将源图像融合为强度值,该方法易于实现并且存储大量的空间信息。最简单的方法是逐像素计算源图像的平均值,但它会导致许多细节丢失等问题。于是人们提出了许多基于块和区域的方法。焦点度量作为图像清晰度的度量,是基于块和区域的方法的关键。几乎所有的焦点测量都依赖于梯度或边缘等高频信息。经典的焦点度量有方差、空间频率(SF)、修正拉普拉斯算子和(SML)等。与其他焦点测量方法相比,SML在测量图像清晰度方面表现更好。为了更好地测量图像清晰度,最近提出了一些新的焦点测量或检测方法,如表面积、多尺度形态学(MSM)、多尺度加权梯度、卷积神经网络和边界提取。这些焦点度量或检测方法在焦点区域检测方面表现良好,但在计算效率和对噪声的鲁棒性方面存在一定问题。

近年来,引导滤波器作为一种高效的边缘感知滤波器,能够很好地保留全局显著边缘和局部形状,在图像融合中得到了广泛的应用。

本文是针对基于空间域的多焦点图像融合方法存在的问题,提出了一种基于引导滤波的多焦点图像融合方法。

2.提出的融合方法

本文提出的方法采用基于引导滤波器的焦点区域检测进行多焦点图像融合(GFDF),原理如图一所示:

引导滤波处理决策图,论文阅读,计算机视觉,深度学习

源图像分别为 I1,I2 

step1:首先利用均值滤波(MF)差分算子得到粗焦点图(RFM1/2),再通过引导滤波(GF1)对粗焦点图进行细化,得到精确焦点图(AFM1/2)

step2:采用相应的细化焦点图的逐像素最大规则得到初始决策图(IDM)

step3:利用小区域去除策略引导滤波(GF2)将初始决策图优化为最终决策图(FDM)

step4:通过逐像素加权平均规则将源图像与最终决策图融合,得到最终图像(IF) 

2.1焦点区域检测

焦点区域检测是多焦点图像融合的重要步骤,本节提出了一种新的基于均值滤波和引导滤波(MGF)的焦点区域检测方法,该方法包括以下三个步骤:

step1:采用简单均值滤波器MF对源图像𝐼1和𝐼2进行模糊处理,得到均值滤波后的图像𝑀1和𝑀2

引导滤波处理决策图,论文阅读,计算机视觉,深度学习

step2:与源图像的焦点区域相比,对均值滤波图像的相应区域进行模糊处理。计算源图像与均值滤波图像之差的绝对值,提取部分高频信息,生成粗焦点图𝑅𝐹𝑀1和𝑅𝐹𝑀2

引导滤波处理决策图,论文阅读,计算机视觉,深度学习

step3:由于引导图像中的高频信息被传递到输出图像中,以源图像作为引导图像,通过引导滤波器增强粗焦图的高频信息。因此,以𝐼1和𝐼2作为引导图像,对粗焦点图𝑅𝐹𝑀1和𝑅𝐹𝑀2进行引导滤波细化,得到比粗焦点图具有更多高频信息的准确焦点图,分别为 𝐴𝐹𝑀1和𝐴𝐹𝑀2引导滤波处理决策图,论文阅读,计算机视觉,深度学习

引导滤波处理决策图,论文阅读,计算机视觉,深度学习

注:a和e是源图像

b和f是用均值滤波器对源图像进行滤波得到的

c和g是粗焦点图,分别是源图像和均值滤波图像差值的绝对结果

d和h是引导过滤器过滤后的精确焦点图。

2.2初始决策图(IDM)

聚焦评价被定义为最佳聚焦图像的最大值,它通常随着离焦的增加而减小。在多焦点图像融合领域中,源图像的焦点区域必须产生最大的焦距,而离焦区域必须产生最小的焦距。其中,𝐴𝐹𝑀1和𝐴𝐹𝑀2分别表示源图像𝐼1和𝐼2的焦点度量。

因此,通过对相应的精确焦点图𝐴𝐹𝑀1和𝐴𝐹𝑀2进行逐像素极大值规则的计算,得到初始决策图

引导滤波处理决策图,论文阅读,计算机视觉,深度学习

引导滤波处理决策图,论文阅读,计算机视觉,深度学习初始决策图IDM

2.3最终决策图(FDM)

可以看出初始决策图IDM中黑色背景中有白色像素,白中有黑,这主要是由于在聚焦和散焦状态下相似的均匀区域,其中高频信息不可用,因此所提出的检测方法无法区分它们。其他原因是由于图像压缩导致的图像噪声或伪影的存在。

因此,使用一些方法可以解决这一问题,如形态学滤波器的开闭操作小区域去除策略,后者的性能要优于前者。注:如果某个区域的像素数小于二进制二进制,则将该区域视为小区域。

小区域去除策略从初始决策图中删除所有小于𝑁 pixels的连接组件(小区域),生成另一个决策图。再本文中𝑁代表被去除的小区域的最大像素数,并通过𝑅×𝐻×𝑊的公式计算,其中𝑅是一个比率因子,𝐻和𝑊分别表示源图像的高度和宽度,𝑅的值决定了去除小区域的数量。如图:

引导滤波处理决策图,论文阅读,计算机视觉,深度学习

在本文提出的融合方法中,将R设置为0.01,下图为采用小区域去除策略处理后的结果。

引导滤波处理决策图,论文阅读,计算机视觉,深度学习采用小区域去除策略进行处理

初始融合图像经过小区域去除策略处理后,采用逐像素加权平均规则与初始决策图进行融合,公式如下:

引导滤波处理决策图,论文阅读,计算机视觉,深度学习

引导滤波处理决策图,论文阅读,计算机视觉,深度学习初始融合图像

然而,处理后的初始决策图不能保留源图像的焦点和离焦区域之间的边界,这可能会在最终的融合图像中产生伪影。为了获得理想的融合图像,再次使用引导滤波器与初始融合图像作为引导图像验证空间一致性,生成所需的最终决策图(𝐹𝐷𝑀)。公式、结果如下:

引导滤波处理决策图,论文阅读,计算机视觉,深度学习

引导滤波处理决策图,论文阅读,计算机视觉,深度学习最终决策图(𝐹𝐷𝑀)

2.4融合结果

对于最终的决策图FDM,源图像通过以下逐像素加权平均规则融合在一起,得到最终融合图像IF

引导滤波处理决策图,论文阅读,计算机视觉,深度学习

引导滤波处理决策图,论文阅读,计算机视觉,深度学习融合结果

3.实验结果

3.1实验设置

为了评估该方法的性能,使用了37对多聚焦图像作为测试图像。其中17对是灰度图像,其余20对是彩色图像。

将所提出的融合方法(GFDF)与7种具有代表性的方法进行了比较,分别是基于非下采样contourlet变换的方法(NSCT)基于引导滤波的方法(GFF)基于图像抠图的方法基于多尺度加权梯度融合的方法(MWGF)基于密集SIFT的方法(DSIFT)基于非下采样contourlet变换和稀疏表示的方法(NSCT_SR)基于卷积神经网络的方法(CNN)

NSCT是代表性的多尺度变换域融合方法,NSCT_SR是一种多尺度变换与稀疏表示相结合的融合方法。GFF、IM、MWGF、DSIFT和CNN是空间域融合方法。

3.2客观评价指标

由于没有参考图像,难以定量评价图像融合的性能。目前,一般使用非参考图像评价指标。

本次实验中,我们采用基于图像特征的指标QG和QP,基于图像相似度的指标QY,人类感知的指标QCB和基于信息论的指标归一化互信息QMI

3.3参数设置

所提出的融合方法需要设置三个关键参数,即均值滤波器滑动窗口大小𝑤、局部窗口半径𝑟和引导滤波器核函数正则化因子。

3.4实验结果及讨论

3.4.1与其他焦点度量比较

本文中,我们使用的是基于均值滤波和制导滤波的焦点区域检测方法(MGF)作为聚焦评价(focus measures),并与SF、SML、MSM这三种聚焦评价进行比较文章来源地址https://www.toymoban.com/news/detail-797465.html

3.4.2与其他融合方法进行比较

4.总结

到了这里,关于论文笔记:Guided filter-based multi-focus image fusion through focus region detection的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • Low-Light Image Enhancement via Stage-Transformer-Guided Network 论文阅读笔记

    这是TCSVT 2023年的一篇暗图增强的论文 文章的核心思想是,暗图有多种降质因素,单一stage的model难以实现多降质因素的去除,因此需要一个multi-stage的model,文章中设置了4个stage。同时提出了用预设query向量来代表不同的降质因素,对原图提取的key 和value进行注意力的方法。

    2024年02月16日
    浏览(49)
  • 3D异常检测论文笔记 | Shape-Guided Dual-Memory Learning for 3D Anomaly Detection

    参考:https://paperswithcode.com/sota/3d-anomaly-detection-and-segmentation-on 论文:https://openreview.net/pdf?id=IkSGn9fcPz code:https://github.com/jayliu0313/Shape-Guided 我们提出了一个形状引导的专家学习框架来解决无监督的三维异常检测问题。我们的方法是建立在两个专门的专家模型的有效性和他们的

    2024年02月09日
    浏览(72)
  • 论文阅读笔记—— Multi-attentional Deepfake Detection

    来源:CVPR 2021 作者:Hanqing Zhao1 Wenbo Zhou1,† Dongdong Chen2 Tianyi Wei1 Weiming Zhang1,† Nenghai Yu1 单位:University of Science and Technology of China1 Microsoft Cloud AI2 邮箱:{zhq2015@mail, welbeckz@, bestwty@mail, zhangwm@, ynh@}.ustc.edu.cn cddlyf@gmail.com 论文原地址:Multi-attentional Deepfake Detection DF大多二分类 人

    2024年02月22日
    浏览(56)
  • 三种经典图像滤波方法介绍——双边滤波(Bilateral filter)、导向滤波(Guided Fliter)、滚动导向滤波(RollingGuidedFilter)

    滤波作为最基础的图像处理手段之一,在图像处理领域占有重要位置,常被用于图像去噪、尺度分解等。从均值滤波到滚动导向滤波,滤波不断朝着精准分离图像中不同尺度信息的方向前进。 我在文中整理了双边滤波、导向滤波、滚动制导滤波三种在图像处理中常见且在论文

    2024年02月05日
    浏览(61)
  • Deep Frequency Filtering for Domain Generalization论文阅读笔记

    这是CVPR2023的一篇论文,讲的是在频域做domain generalization,找到频域中generalizable的分量enhance它,suppress那些影响generalization的分量 DG是一个研究模型泛化性的领域,尝试通过各自方法使得模型在未见过的测试集上有良好的泛化性。 intro部分指出,低频分量更好泛化,而高频分

    2024年02月07日
    浏览(40)
  • Multi Diffusion: Fusing Diffusion Paths for Controlled Image Generation——【论文笔记】

    本文发表于ICML 2023 论文官网:MultiDiffusion: Fusing Diffusion Paths for Controlled Image Generation           文本到图像生成模型已经具有合成高质量和多样化图像的能力,但是由于难以为用户提供对生成内容的直观控制,因此将文本到图像模型部署到现实世界的应用程序仍然具有挑战

    2024年02月02日
    浏览(43)
  • 【NLP】Label prompt for multi-label text classification论文阅读笔记

            写于来XXXX公司实习的最后一个月,预祝自己实习顺利结束~ Paper address: Label prompt for multi-label text classification | Applied Intelligence ( Applied Intelligence 2023)          在多标签分类任务中,在复杂且未知的标签空间中直接对标签之间的相关性进行建模是相当具有挑战性的。

    2024年02月02日
    浏览(51)
  • PolarFormer:Multi-camera 3D Object Detection with Polar Transformer——论文笔记

    参考代码:PolarFormer 介绍:在仓库RoboBEV中总结了现有的一些bev感知算法在不同输入情况下的鲁棒性,在这些感知算法中PolarFormer拥有较为不错的泛化性能。这个算法的思想是将之前由直角坐标系栅格化构建bev网格,转换到由极坐标构建栅格化bev网格,这样的bev特征构建方法其

    2024年02月11日
    浏览(53)
  • [论文笔记] SurroundOcc: Multi-Camera 3D Occupancy Prediction for Autonomous Driving

    Wei, Yi, et al. “Surroundocc: Multi-camera 3d occupancy prediction for autonomous driving.” Proceedings of the IEEE/CVF International Conference on Computer Vision. 2023. 将占用网格应用到多个相机构成的3D空间中; 使用BEVFormer中的方法获取3D特征, 然后使用交叉熵损失计算loss; 和BEVFormer区别是BEV中z轴高度为1, 这里

    2024年02月04日
    浏览(43)
  • 【论文笔记】图像修复MPRNet:Multi-Stage Progressive Image Restoration 含代码解析

    目录 一、介绍 二、使用方法 1.推理 2.训练 三、MPRNet结构 1.整体结构 2.CAB(Channel Attention Block) 3.Stage1 Encoder 4.Stage2 Encoder 5.Decoder 6.SAM(Supervised Attention Module) 7.ORSNet(Original Resolution Subnetwork) 四、损失函数 1.CharbonnierLoss 2.EdgeLoss           论文地址:https://arxiv.org/pdf/2102.02808.pdf    

    2024年02月16日
    浏览(48)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包