图像融合论文阅读:IFCNN: A general image fusion framework based on convolutional neural network

这篇具有很好参考价值的文章主要介绍了图像融合论文阅读:IFCNN: A general image fusion framework based on convolutional neural network。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

@article{zhang2020ifcnn,
title={IFCNN: A general image fusion framework based on convolutional neural network},
author={Zhang, Yu and Liu, Yu and Sun, Peng and Yan, Han and Zhao, Xiaolin and Zhang, Li},
journal={Information Fusion},
volume={54},
pages={99–118},
year={2020},
publisher={Elsevier}
}

论文级别:SCI A1
影响因子:18.6
📖

📖论文解读

该论文是【基于CNN】的图像融合方法。网络模型是【端到端】,适用于【多类型图像融合任务】,从【多聚焦图像融合】展开。
此外,作者还发布了新的数据集。

🔑关键词

  • General image fusion framework 通用图像融合框架
  • Convolutional neural network 卷积神经网络
  • Large-scale multi-focus image dataset 大规模多聚焦图像数据集
  • Better generalization ability 更好的泛化性能

💭核心思想

IFCNN是一个【全卷积】的【端到端】【通用】图像融合模型,模型包括:特征提取、特征融合、特征重构三部分。

  • 输入(【多组】【3通道】图像)
    • RGB->YCbCr,叠加Y通道3次作为输入
    • 单通道图像,直接叠加3次变成3通道
  • 特征提取
    使用在ImageNet上预训练的ResNet101的第一个卷积层作为特征提取的第一个卷积层,但是因为该卷积层是用于分类任务的,因此添加了第二个卷积层以适应图像融合任务。
  • 特征融合
    并没有采用concat后再卷积融合的操作,而是使用元素融合规则(元素【最大】、【最小】、【平均】)。前者要求特征输入模块参数个数随输入改变,而元素融合规则不需要,可以融合任意数量的输入图像。本文使用:
    • 可见光-红外、多聚焦、多模态医学:【元素最大】
    • 多曝光:【元素平均】
  • 特征重构
    因为特征提取结构简单,特征抽象级别不高,所以重构也简单的使用了两层卷积
  • 输出
    引入了【感知损失】对模型进行正则化,

参考链接
[什么是图像融合?(一看就通,通俗易懂)]

🪢网络结构

作者提出的网络结构如下图所示。结构很清晰明了。
图像融合论文阅读:IFCNN: A general image fusion framework based on convolutional neural network,图像融合,论文阅读,深度学习,图像处理,人工智能
CONV1包含64个7×7的卷积核,步长为1,padding为3。(不需要再训练,直接使用固化的参数)
CONV2包含64个3×3的卷积核,步长为1,padding为1。
在FUSE中,采用了相应任务的元素融合规则,公式如下:
图像融合论文阅读:IFCNN: A general image fusion framework based on convolutional neural network,图像融合,论文阅读,深度学习,图像处理,人工智能
f i , c 2 j f^j_{i,c_2} fi,c2j代表了CONV2中,从第i张图像提取的第j个特征图。 f j ^ \hat {f^j} fj^代表了融合特征图的第j个通道。 f u s e fuse fuse表示元素融合规则。
因为下采样会丢失信息,因此该网络没有进行任何下采样。整个网络中特征图和输入图像尺寸均一致。
CONV3包含64个3×3的卷积核,步长为1,padding为1。
CONV3包含3个1×1的卷积核,目的是为了将64通道的特征图压缩至3通道。
在输入的地方,RGB2YCbCr的公式为:
图像融合论文阅读:IFCNN: A general image fusion framework based on convolutional neural network,图像融合,论文阅读,深度学习,图像处理,人工智能

📉损失函数

感知损失由ResNet101最后一个卷积层提取的预测融合图像特征图与标签融合图像的均方误差构成:
图像融合论文阅读:IFCNN: A general image fusion framework based on convolutional neural network,图像融合,论文阅读,深度学习,图像处理,人工智能
f p f_p fp f g f_g fg分别代表预测融合图像的特征图以及融合图像ground truth的特征图,i为特征图的通道索引, C f C_f Cf H f H_f Hf W f W_f Wf分别代表特征图的通道数、高、宽。

图像融合论文阅读:IFCNN: A general image fusion framework based on convolutional neural network,图像融合,论文阅读,深度学习,图像处理,人工智能
I p I_p Ip I g I_g Ig分别代表预测融合图像以及融合图像的ground truth,i为RGB图像通道索引。 H g H_g Hg W g W_g Wg分别为融合图像ground truth的高和宽。
总损失如下:
图像融合论文阅读:IFCNN: A general image fusion framework based on convolutional neural network,图像融合,论文阅读,深度学习,图像处理,人工智能
ω 1 \omega_1 ω1 ω 2 \omega_2 ω2为权重系数,本文设置均为1.

🔢数据集

图像融合数据集链接
[图像融合常用数据集整理]

🎢训练设置

  • 在多聚焦图像数据集上,只用 B l o s s B_loss Bloss预训练5000次,batchsize64
  • 冻结BN层参数,采用 T l o s s T_loss Tloss进行60000个epoch精细训练,batchsize32(此步骤计算量较大,所以降低)

🔬实验

📏评价指标

  • VIFF
  • ISSIM
  • NMI
  • SF
  • AG

参考资料
[图像融合定量指标分析]

🥅Baseline

  • GFF,LPSR,MFCNN,MECNN

参考资料
[图像融合论文baseline及其网络模型]

🔬实验结果

图像融合论文阅读:IFCNN: A general image fusion framework based on convolutional neural network,图像融合,论文阅读,深度学习,图像处理,人工智能
图像融合论文阅读:IFCNN: A general image fusion framework based on convolutional neural network,图像融合,论文阅读,深度学习,图像处理,人工智能
图像融合论文阅读:IFCNN: A general image fusion framework based on convolutional neural network,图像融合,论文阅读,深度学习,图像处理,人工智能
图像融合论文阅读:IFCNN: A general image fusion framework based on convolutional neural network,图像融合,论文阅读,深度学习,图像处理,人工智能
图像融合论文阅读:IFCNN: A general image fusion framework based on convolutional neural network,图像融合,论文阅读,深度学习,图像处理,人工智能
图像融合论文阅读:IFCNN: A general image fusion framework based on convolutional neural network,图像融合,论文阅读,深度学习,图像处理,人工智能
图像融合论文阅读:IFCNN: A general image fusion framework based on convolutional neural network,图像融合,论文阅读,深度学习,图像处理,人工智能
图像融合论文阅读:IFCNN: A general image fusion framework based on convolutional neural network,图像融合,论文阅读,深度学习,图像处理,人工智能
图像融合论文阅读:IFCNN: A general image fusion framework based on convolutional neural network,图像融合,论文阅读,深度学习,图像处理,人工智能

更多实验结果及分析可以查看原文:
📖[论文下载地址]
💽[代码下载地址]


🚀传送门

📑图像融合相关论文阅读笔记

📑[(PMGI) Rethinking the image fusion: A fast unified image fusion network based on proportional maintenance of gradient and intensity]
📑[SDNet: A Versatile Squeeze-and-Decomposition Network for Real-Time Image Fusion]
📑[DDcGAN: A Dual-Discriminator Conditional Generative Adversarial Network for Multi-Resolution Image Fusion]
📑[FusionGAN: A generative adversarial network for infrared and visible image fusion]
📑[PIAFusion: A progressive infrared and visible image fusion network based on illumination aw]
📑[Visible and Infrared Image Fusion Using Deep Learning]
📑[CDDFuse: Correlation-Driven Dual-Branch Feature Decomposition for Multi-Modality Image Fusion]
📑[U2Fusion: A Unified Unsupervised Image Fusion Network]

📚图像融合论文baseline总结

📚[图像融合论文baseline及其网络模型]

📑其他论文

[3D目标检测综述:Multi-Modal 3D Object Detection in Autonomous Driving:A Survey]

🎈其他总结

🎈[CVPR2023、ICCV2023论文题目汇总及词频统计]

✨精品文章总结

✨[图像融合论文及代码整理最全大合集]
✨[图像融合常用数据集整理]

如有疑问可联系:420269520@qq.com;
码字不易,【关注,收藏,点赞】一键三连是我持续更新的动力,祝各位早发paper,顺利毕业~文章来源地址https://www.toymoban.com/news/detail-772600.html

到了这里,关于图像融合论文阅读:IFCNN: A general image fusion framework based on convolutional neural network的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • 图像融合论文阅读:CS2Fusion: 通过估计特征补偿图谱实现自监督红外和可见光图像融合的对比学习

    @article{wang2024cs2fusion, title={CS2Fusion: Contrastive learning for Self-Supervised infrared and visible image fusion by estimating feature compensation map}, author={Wang, Xue and Guan, Zheng and Qian, Wenhua and Cao, Jinde and Liang, Shu and Yan, Jin}, journal={Information Fusion}, volume={102}, pages={102039}, year={2024}, publisher={Elsevier} } 论文级

    2024年01月22日
    浏览(60)
  • 【论文阅读】Weighted Boxes Fusion(WBF)模型融合原理解读

    论文地址:https://arxiv.org/pdf/1910.13302.pdf 代码地址:GitHub - ZFTurbo/Weighted-Boxes-Fusion: Set of methods to ensemble boxes from different object detection models, including implementation of \\\"Weighted boxes fusion (WBF)\\\" method. 【 原理 】 (1)将所有获得的候选框按得分进行降序排列; (2)选取得分最高的候选框

    2024年02月10日
    浏览(49)
  • 【读论文】SwinFusion: Cross-domain Long-range Learning for General Image Fusion via Swin Transformer

    论文:https://ieeexplore.ieee.org/document/9812535 如有侵权请联系博主 Swin Transformer 长期依赖性、全局信息 跨域融合 2022年发表在 IEEE/CAA JOURNAL OF AUTOMA TICA SINICA的一篇文章,该篇论文的作者仍然是我们熟悉的FusionGAN的作者。 简单来说,该篇论文提出了一个基于CNN和Swin Transformer来提取

    2024年02月16日
    浏览(47)
  • 【论文阅读】PSDF Fusion:用于动态 3D 数据融合和场景重建的概率符号距离函数

    PSDF Fusion: Probabilistic Signed Distance Function for On-the-fly 3D Data Fusion and Scene Reconstruction We propose a novel 3D spatial representation for data fusion and scene reconstruction. Probabilistic Signed Distance Function (Probabilistic SDF, PSDF) is proposed to depict uncertainties in the 3D space. It is modeled by a joint distribution describing

    2024年02月03日
    浏览(66)
  • 【论文阅读】以及部署BEVFusion: A Simple and Robust LiDAR-Camera Fusion Framework

    BEVFusion: A Simple and Robust LiDAR-Camera Fusion Framework BEVFusion:一个简单而强大的LiDAR-相机融合框架 NeurIPS 2022 多模态传感器融合意味着信息互补、稳定,是自动驾驶感知的重要一环,本文注重工业落地,实际应用 融合方案: 前融合(数据级融合)指通过空间对齐直接融合不同模态的

    2024年02月04日
    浏览(49)
  • 【论文阅读】Uformer:A General U-Shaped Transformer for Image Restoration

    🐳博客主页:😚睡晚不猿序程😚 ⌚首发时间:2023.6.8 ⏰最近更新时间:2023.6.8 🙆本文由 睡晚不猿序程 原创 🤡作者是蒻蒟本蒟,如果文章里有任何错误或者表述不清,请 tt 我,万分感谢!orz 目录 🚩前言 1. 内容简介 2. 论文浏览 3. 图片、表格浏览 4. 引言浏览 5. 方法 5.

    2024年02月08日
    浏览(49)
  • 【论文阅读】SuperFusion: A Versatile Image Registration and Fusion Network with Semantic Awareness

    论文链接:SuperFusion: A Versatile Image Registration and Fusion Network with Semantic Awareness | IEEE Journals Magazine | IEEE Xplore 代码: GitHub - Linfeng-Tang/SuperFusion: This is official Pytorch implementation of \\\"SuperFusion: A Versatile Image Registration and Fusion Network with Semantic Awareness\\\" 图像融合的重要性:由于摄影环境

    2024年03月19日
    浏览(51)
  • 论文阅读:FusionGAN: A generative adversarial network for infrared and visible image fusion

    @article{ma2019fusiongan, title={FusionGAN: A generative adversarial network for infrared and visible image fusion}, author={Ma, Jiayi and Yu, Wei and Liang, Pengwei and Li, Chang and Jiang, Junjun}, journal={Information fusion}, volume={48}, pages={11–26}, year={2019}, publisher={Elsevier} } [论文下载地址] Image fusion, infrared image, visible image

    2024年01月22日
    浏览(47)
  • 论文阅读:LIF-Seg: LiDAR and Camera Image Fusion for 3DLiDAR Semantic Segmentation

    LIF-Seg:用于 3D LiDAR 语义分割的 LiDAR 和相机图像融合 来源:华科 + 商汤 未发表2021 链接:https://arxiv.org/abs/2108.07511 个人觉得有用的和自己理解加粗和()内表示,尽量翻译的比较全,有一些官方话就没有翻译了,一些疑惑的地方欢迎大家探讨。如果对整个领域比较熟悉看一、

    2023年04月25日
    浏览(43)
  • 深度学习中的图像融合:图像融合论文阅读与实战

    个人博客 :Sekyoro的博客小屋 个人网站 :Proanimer的个人网站 介绍图像融合概念,回顾sota模型,其中包括数字摄像图像融合,多模态图像融合, 接着评估一些代表方法 介绍一些常见应用,比如RGBT目标跟踪,医学图像检查,遥感监测 动机: 由于硬件设备的理论和技术限制,单一

    2024年02月02日
    浏览(58)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包