Channel-separation-based Network for Object Detection under Foggy Conditions

这篇具有很好参考价值的文章主要介绍了Channel-separation-based Network for Object Detection under Foggy Conditions。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

Channel-separation-based Network for Object Detection under Foggy Conditions

Abstract

现存的一些方法尝试恢复高质量图像,但这会增加网络复杂性并且丢失图像的潜在信息。在这项研究中,一个基于通道分离的检测网络被提出用来保存潜在信息。特别地,雾过滤器用于在图像处理期间执行修剪,以保持图像的潜在信息。通过把深层特征提取替换为一个即插即用模块(MBConvBlock)和使用一个新的CSPBottleNeck和CrossConv联合,我们的模型克服了卷积神经网络固有的缺点,并具有全局感受野和专注于更关键的特征。这个模型使用端到端的方法和混合数据进行训练,因此课题提高模型网络的泛化能力。

Introduction

提出了一种基于通道分离的检测网络包含四个部分来保留额外的潜在信息。
1、首先,使用雾过滤器,对图像预处理进行修建保留了正常图像信息。雾过滤器被用来过滤和增强有雾图片。
2、在网络主干引入了MBConvBlock(包括深度卷积和SE)。这可以改善深度特征图对空间信息的低敏感性并且克服雾天条件下全局特征的不完整性。
3、将改进的CSPBottleNeck和CrossConv结合用于特征金字塔。它可以缓解原始卷积在特征聚合中的信息丢失并且挖掘边缘信息。
4、为了提高网络的性能将正常图片和有雾图片混合用于训练。

本文主要贡献如下:
1、提出了一种基于通道分离的端到端检测网络,因此可以达到更高的准确率并且不需要复杂的结构或者图像处理方法
2、提出了一种雾过滤器
3、由于原始卷积提取特征的局限性,MBConvBlock被引入提取复杂的语义和空间信息。设计了一种与CrossConv相结合的改进的CSPBottleNeck,以在特征聚合过程中保留额外的潜在信息。它们增强了特征的表达能力,从而提高了被雾遮挡物体的检测能力。

Method

Channel-separation-based Network for Object Detection under Foggy Conditions,目标检测,人工智能,计算机视觉

A. Fog Filter

Fog Detector

去雾方法可以得到无雾的图片;但是也许会造成图像曝光过度并且损害正常场景的信息。这牺牲了对正常场景的检测精度。为了解决上述问题,提出了一个fog detector来保证正常场景中的所有信息,为了确保我们的模型可以适应有雾环境和正常环境,其中输入图像的方差被用作检测器的标准。如果方差低于某个值我们就认为有雾,在朦胧条件,雾会使图片变灰,这会使得有雾图片的方差比清晰的图片小很多。这证明了使用方差作为检测器标准的可行性。

Fog Removal

为了保留更多的图片信息,我们的模型在图片处理过程中只通过增强图片对比度来进行修剪。在fog filter引入了自动色彩增强(ACE)算法。它通过计算目标像素和周围像素之间的关系以及它们的光照和在图像中的变形程度来校正像素值,以调整图像的对比度。
ACE算法具体步骤如下:
1、计算对单通道图像I中的所有点p进行自适应滤波,以获得色差校正和空间重建后的中间结果,如下所示:
Channel-separation-based Network for Object Detection under Foggy Conditions,目标检测,人工智能,计算机视觉
Channel-separation-based Network for Object Detection under Foggy Conditions,目标检测,人工智能,计算机视觉代表p和j像素之间的灰度差,d(p,j)是控制点j对p的影响权重并映射滤波的区域适应性的两点之间的欧几里得距离。
S(x)是亮度性能函数
2、在公式1获得的中间值被拉伸映射到【0,255】,占据8位灰度
Channel-separation-based Network for Object Detection under Foggy Conditions,目标检测,人工智能,计算机视觉
总体而言,通过雾过滤器,仅对雾图像进行去雾增强,保留了正常环境中的图像信息,并且在雾条件下损失较小。

MBConvBlock

Channel-separation-based Network for Object Detection under Foggy Conditions,目标检测,人工智能,计算机视觉

CNN感受野固定且有限,它严重依赖全局信息忽略深度特征图中的空间特征。将SE和深度卷积集结在一个block称为MBConvBlock,适用于替换主干最后的三个卷积层。SE模块选择性地强调有用信息,抑制不可靠特征的特征,从而减少对全局信息特征的依赖,并专注于关键领域的可靠特征。

CrossConv

在FPN中使用原始卷积会导致潜在信息丢失,因此决定使用CrossConv替代原始卷积在特征金字塔中
Channel-separation-based Network for Object Detection under Foggy Conditions,目标检测,人工智能,计算机视觉
与原始卷积相比,这两个不对称卷积可以分别关注垂直和水平的梯度信息来正确地提取目标的边缘信息。
Channel-separation-based Network for Object Detection under Foggy Conditions,目标检测,人工智能,计算机视觉

解耦头

常见的预测头在一个特征层中同时输出分类和位置信息。但是,分类的重点与位置不同。分类更多地关注对象的纹理内容,而位置更关注边缘信息。
特征图首先被馈送到两个通道中,第一个通道使用完全连接的层来预测对象类别。第二个通道被划分为两个分支,用于预测类框和坐标信息,通过对不同人物的有针对性的探索,网络可以精确定位目标
Channel-separation-based Network for Object Detection under Foggy Conditions,目标检测,人工智能,计算机视觉

混合数据

每个图像被训练时,都有2/3的概率加雾

Experiments

Channel-separation-based Network for Object Detection under Foggy Conditions,目标检测,人工智能,计算机视觉
Channel-separation-based Network for Object Detection under Foggy Conditions,目标检测,人工智能,计算机视觉文章来源地址https://www.toymoban.com/news/detail-801842.html

到了这里,关于Channel-separation-based Network for Object Detection under Foggy Conditions的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • 论文阅读——Large Selective Kernel Network for Remote Sensing Object Detection

    期刊 CVPR 年份 2023 论文地址 https://arxiv.org/pdf/2303.09030.pdf 代码地址 https://github.com/zcablii/LSKNet 遥感目标检测的大选择核网络 相对较少的工作考虑到强大的先验知识存在于遥感图像。航空图像通常是用高分辨率的鸟瞰图拍摄的。特别是,航拍图像中的大多数物体可能体积较小,

    2024年02月08日
    浏览(51)
  • 论文精读 《CaDNN: Categorical Depth Distribution Network for Monocular 3D Object Detection》

    研究动机:单目3D目标检测难以预测物体的深度 单目 3D 目标检测是自动驾驶领域的一个关键问题,因为它与典型的多传感器系统相比配置比较简单。 单目 3D 检测的主要挑战在于准确预测物体深度 ,由于缺乏直接的距离测量,因此必须从物体和场景线索推断出物体深度。许多

    2023年04月22日
    浏览(82)
  • 【论文阅读】LSKNet: Large Selective Kernel Network for Remote Sensing Object Detection

    这是南开大学在ICCV2023会议上新提出的旋转目标检测算法,基本原理就是通过一系列Depth-wise 卷积核和空间选择机制来动态调整目标的感受野,从而允许模型适应不同背景的目标检测。 论文地址:https://arxiv.org/pdf/2303.09030.pdf 代码地址(可以直接使用mmrotate框架实现):GitHub

    2024年02月07日
    浏览(47)
  • Cross-Drone Transformer Network for Robust Single Object Tracking论文阅读笔记

    无人机在各种应用中得到了广泛使用,例如航拍和军事安全,这得益于它们与固定摄像机相比的高机动性和广阔视野。多 无人机追踪系统可以通过从不同视角收集互补的视频片段 ,为目标提供丰富的信息,特别是当目标在某些视角中被遮挡或消失时。然而,在多无人机视觉

    2024年01月25日
    浏览(60)
  • 论文阅读:CenterFormer: Center-based Transformer for 3D Object Detection

    目录 概要 Motivation 整体架构流程 技术细节 Multi-scale Center Proposal Network Multi-scale Center Transformer Decoder Multi-frame CenterFormer 小结 论文地址: [2209.05588] CenterFormer: Center-based Transformer for 3D Object Detection (arxiv.org) 代码地址: GitHub - TuSimple/centerformer: Implementation for CenterFormer: Center-base

    2024年02月07日
    浏览(44)
  • Training-Time-Friendly Network for Real-Time Object Detection 论文学习

    目前的目标检测器很少能做到快速训练、快速推理,并同时保持准确率。直觉上,推理越快的检测器应该训练也很快,但大多数的实时检测器反而需要更长的训练时间。准确率高的检测器大致可分为两类:推理时间久的的训练时间久的。 推理时间久的检测器一般依赖于复杂的

    2024年02月15日
    浏览(45)
  • DSGN: Deep Stereo Geometry Network for 3D Object Detection---基于双目视觉的3D目标检测(1)

    为了弥合2D图像和3D空间之间的差距,在平面扫描体中建立立体对应关系,然后将其转换为3DGV(3D geometric volume),以便能够对3D几何体和语义线索进行编码,并能在世界坐标系中进行目标检测。 设计了一条端到端的pipeline,用于提取像素级特征以进行立体匹配,并提取高级特

    2024年02月12日
    浏览(41)
  • 详解KITTI视觉3D检测模型CMKD: Cross-Modality Knowledge Distillation Network for Monocular 3D Object Detection

    本文介绍一篇激光雷达监督视觉传感器的3D检测模型: CMKD ,论文收录于 ECCV2022 。 在本文中,作者提出了用于单目3D检测的 跨模态知识蒸馏 (CMKD) 网络 ,使用激光雷达模型作为教师模型,监督图像模型(图像模型为CaDDN)。 此外,作者通过 从大规模未标注的数据中提取知识

    2024年01月24日
    浏览(47)
  • 论文阅读RangeDet: In Defense of Range View for LiDAR-based 3D Object Detection

    论文:https://arxiv.org/pdf/2103.10039.pdf 代码:https://github.com/tusen-ai/RangeDet 提出了一个名为RangeDet的新型3D物体检测技术,利用激光雷达数据。 RangeDet的核心在于使用了一种紧凑的表示方法,称为范围视图,与其他常用方法相比,它避免了计算误差。 根据论文中的讨论,使用范围视

    2024年04月13日
    浏览(53)
  • 论文解读《Learning Deep Network for Detecting 3D Object Keypoints and 6D Poses》 无需位姿标注的model-free 6D位姿估计

    论文:《Learning Deep Network for Detecting 3D Object Keypoints and 6D Poses》 摘要: 解决问题:标注困难且没有CAD模型。 开发了一种基于关键点的6D对象姿态检测方法,Object Keypoint based POSe Estimation (OK-POSE)。通过使用大量具有多视点之间的 相对变换信息 的图像对(相对变换信息可以很容

    2024年02月04日
    浏览(52)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包