【论文阅读】DeepLab:语义图像分割与深度卷积网络,自然卷积,和完全连接的crf

这篇具有很好参考价值的文章主要介绍了【论文阅读】DeepLab:语义图像分割与深度卷积网络,自然卷积,和完全连接的crf。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

【论文阅读】DeepLab:语义图像分割与深度卷积网络,自然卷积,和完全连接的crf


DeepLab: Semantic Image Segmentation with Deep Convolutional Nets, Atrous Convolution, and Fully Connected CRFs

深度学习解决了语义图像分割的任务

做出了三个主要贡献,这些贡献在实验中被证明具有实质性的实际价值

  • 强调卷积与上采样滤波器,或“空洞卷积”,作为一个强大的工具在密集预测任务

    作用:卷积实现不增加参数数量或计算量的情况下有效地扩大过滤器的视野,以纳入更大的上下文**

  • 空间金字塔池(ASPP)的多尺度目标鲁棒分割方法

    作用:在多个尺度上捕获对象和图像上下文

  • 结合DCNNs和概率图模型的方法,改进了目标边界的定位

    作用:条件随机场(CRF)相定性和定量地展示了定位性能

提出的DeepLab系统在PASCAL VOC -2012语义图像分割任务

一、介绍

以端到端方式训练的DCNNs比依赖手工制作特征的系统提供了明显更好的结果

DCNNs对局部图像变换的内置不变性,这使得它们能够学习越来越抽象的数据表示

可能会妨碍语义分割等密集的预测任务,因为在这些任务中不需要对空间信息进行抽象

DCNN应用于语义图像分割的三个挑战:

  • 特征分辨率降低
  • 多个尺度上存在目标
  • 由于DCNN的不变性而降低了定位精度


当DCNN以完全卷积的方式使用时,这将导致显著降低空间分辨率的特征图

DCNNs的最后几个最大池化层中去除下采样算子,并在随后的卷积层中对滤波器进行上采样

采用空洞卷积作为上采样滤波器卷积

空洞卷积允许我们在不增加参数数量或计算量的情况下有效地扩大滤波器的视场

相当于用具有互补有效视场的多个滤波器探测原始图像,从而在多个尺度上捕获物体以及有用的图像上下文

我们的工作探索了一种我们认为非常有效的替代方法。

采用完全连接的条件随机场(CRF)来提高模型捕获精细细节的能力

crf已广泛用于语义分割,将多路分类器计算的类分数与像素和边缘的局部相互作用捕获的低级信息相结合

越来越复杂的工作来模拟层次依赖关系

使用了完全连接的成对CRF,它具有高效的计算能力,并且能够捕捉精细的边缘细节,同时还能满足长距离依赖关系

DeepLab模型的高级说明如图

重新用于语义分割任务:

  • 将所有全连接层转换为卷积层(即全卷积网络[14])
  • 通过亚卷积层增加特征分辨率
  • 双线性插值将分数图上采样8倍,以达到原始图像分辨率
  • 输入输出到一个完全连接的CRF

【论文阅读】DeepLab:语义图像分割与深度卷积网络,自然卷积,和完全连接的crf,论文阅读,网络,计算机视觉

双线性插值阶段将特征映射扩大到原始图像分辨率。然后应用全连接的CRF来细化分割

二、联系工作

大多数成功的语义分割系统依赖于手工制作的特征与平面分类器相结合

但这些系统的性能一直受到特征表达能力有限的影响

  • 第一类基于dcnn的语义分割系统通常采用自下而上的级联图像分割
  • 第二类工作依赖于使用卷积计算的DCNN特征进行密集图像标记
  • 第三类作品使用DCNNs直接提供密集的类别级像素标签


本文工作建立在这些工作的基础上,,通过控制特征分辨率、引入多尺度池化技术和在DCNN之上集成密集连接的CRF[22]来扩展它们

DCNN与CRF的结合当然并不新鲜,但之前的研究都是尝试局部连接的CRF模型


我们采用的全连接CRF模型[22]中的高斯CRF电位可以捕获远程依赖关系

大部分方法成功地对DCNN和CRF进行了联合学习

对整个训练集都可以使用像素级语义注释的假设


空洞卷积还允许我们扩大过滤器的视野,以纳入更大的环境

三、方法

3.1 整体结构

DCNNs进行语义分割或其他密集预测任务

被证明可以通过以全卷积方式部署DCNNs来简单而成功地解决

最近的DCNNs中,每个方向的分辨率通常是32倍。部分补救措施是使用“反卷积”层

【论文阅读】DeepLab:语义图像分割与深度卷积网络,自然卷积,和完全连接的crf,论文阅读,网络,计算机视觉

图中的公式表明卷积的速度和扩展的快慢

速率参数r对应于我们对输入信号进行采样的步幅

【论文阅读】DeepLab:语义图像分割与深度卷积网络,自然卷积,和完全连接的crf,论文阅读,网络,计算机视觉

在低分辨率输入特征映射上进行标准卷积稀疏特征

在高分辨率的输入特征映射上,使用率为r¼2的亚历斯卷积进行密集特征提取。
【论文阅读】DeepLab:语义图像分割与深度卷积网络,自然卷积,和完全连接的crf,论文阅读,网络,计算机视觉

操作:

  • 分辨率降低2倍
  • 使用核进行卷积-这里是垂直高斯导数
  • 特征映射植入到原始图像坐标


将全分辨率图像与“带孔”滤波器进行卷积,我们可以计算所有图像位置的响应

因此过滤器参数的数量和每个位置的操作次数都保持不变


相反,我们采用了一种混合方法,在效率和精度之间取得了良好的平衡,使用空洞卷积将计算特征图的密度增加了4倍,然后使用8倍的快速双线性插值来恢复原始图像分辨率的特征图

3.2 使用空间金字塔池的多尺度图像表示

cnn已经显示出一种非凡的隐式表示规模的能力

第一种方法相当于标准的多尺度处理。我们使用共享相同参数的并行DCNN分支

多尺度处理显著提高了性能,但代价是计算多尺度输入的所有DCNN层的特征响应

该方案使用多个具有不同采样率的并行空洞卷积层。每个采样率提取的特征在单独的分支中进一步处理并融合以产生最终结果。

【论文阅读】DeepLab:语义图像分割与深度卷积网络,自然卷积,和完全连接的crf,论文阅读,网络,计算机视觉

3.3 基于完全连通条件随机场(CRF)的结构预测精确边界恢复

在定位精度和分类性能之间的权衡似乎是DCNNs固有的

具有多个最大池化层的更深模型在分类任务中被证明是最成功的

DCNN得分图可以预测物体的存在和大致位置,但不能真正描绘出它们的边界


【论文阅读】DeepLab:语义图像分割与深度卷积网络,自然卷积,和完全连接的crf,论文阅读,网络,计算机视觉

工作追求两个方向来解决这个挑战

  • 利用卷积网络中的多层信息,以便更好地估计目标边界
  • 采用超像素表示

基于耦合DCNNs的识别能力和全连接crf的细粒度定位精度来追求另一个方向,并表明它在解决定位挑战方面非常成功

并在远远超出现有方法范围的细节水平上恢复对象边界

作用:

  • CRFs被用于平滑噪声分割映射
  • 模型对相邻节点进行耦合,倾向于对空间近端像素进行相同标签分配
  • 短期crf的主要功能是清除建立在局部手工设计特征之上的弱分类器的虚假预测

为了克服短程CRF的这些局限性,我们将的全连接CRF模型集成到我们的系统中

【论文阅读】DeepLab:语义图像分割与深度卷积网络,自然卷积,和完全连接的crf,论文阅读,网络,计算机视觉

表达式在不同的特征空间中使用两个高斯核

  • 第一个内核强制具有相似颜色和位置的像素具有相似的标签
  • 第二个内核在强制平滑时仅考虑空间接近性

四、实验结果

我们对Imagenet-pretrained VGG-16或ResNet-101网络的模型权值进行微调,使其以一种简单的方式适应语义分割任务

SGD过程

解耦了DCNN和CRF的训练阶段

【论文阅读】DeepLab:语义图像分割与深度卷积网络,自然卷积,和完全连接的crf,论文阅读,网络,计算机视觉文章来源地址https://www.toymoban.com/news/detail-838650.html

到了这里,关于【论文阅读】DeepLab:语义图像分割与深度卷积网络,自然卷积,和完全连接的crf的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • 论文阅读:基于深度学习的大尺度遥感图像建筑物分割研究

    一、该网络中采用了上下文信息捕获模块。通过扩大感受野,在保留细节信息的同时,在中心部分进行多尺度特征的融合,缓解了传统算法中细节信息丢失的问题;通过自适应地融合局部语义特征,该网络在空间特征和通道特征之间建立长距离的依赖关系; 二、分割网络:边

    2024年02月15日
    浏览(47)
  • 论文阅读-2:基于深度学习的大尺度遥感图像建筑物分割研究

    一、该网络中采用了上下文信息捕获模块。通过扩大感受野,在保留细节信息的同时,在中心部分进行多尺度特征的融合,缓解了传统算法中细节信息丢失的问题;通过自适应地融合局部语义特征,该网络在空间特征和通道特征之间建立长距离的依赖关系; 二、分割网络:边

    2024年02月16日
    浏览(47)
  • 语义分割大模型RSPrompter论文阅读

    RSPrompter: Learning to Prompt for Remote Sensing Instance Segmentation based on Visual Foundation Model RSPrompter 摘要 Abstract—Leveraging vast training data (SA-1B), the foundation Segment Anything Model (SAM) proposed by Meta AI Research exhibits remarkable generalization and zero-shot capabilities. Nonetheless, as a category-agnostic instance segmen

    2024年02月12日
    浏览(55)
  • 语义分割大模型SAM论文阅读(二)

    Segment Anything SAM 我们介绍了分割一切(SA)项目:一个新的图像分割任务,模型和数据集。在数据收集循环中使用我们的高效模型,我们建立了迄今为止(到目前为止)最大的分割数据集,在1100万张许可和尊重隐私的图像上拥有超过10亿个掩模。 该模型被设计和训练为提示 ,因此它

    2024年02月13日
    浏览(46)
  • 第三章:DeepLabV3——重新思考用于语义图像分割的扩张卷积

    原问题目:《Rethinking Atrous Convolution for Semantic Image Segmentation》 原文引用:Chen L C, Papandreou G, Schroff F, et al. Rethinking atrous convolution for semantic image segmentation[J]. arXiv preprint arXiv:1706.05587, 2017. 发表时间:2018年1月 原文链接: https://arxiv.org/pdf/1706.05587.pdf%EF%BC%8C%E6%8E%A8%E8%8D%90%E5%9C%A8

    2024年02月16日
    浏览(59)
  • 论文阅读笔记——A2FSeg:用于医学图像分割自适应多模态融合网络

    论文地址: https://www.semanticscholar.org/paper/A2FSeg%3A-Adaptive-Multi-modal-Fusion-Network-for-Wang-Hong/330f94e291a9b881ad14ca500f8d96e185d43b15 代码仓库: https://github.com/Zirui0623/A2FSeg/tree/main?tab=readme-ov-file 磁共振成像(MRI)在多模式脑肿瘤分割中发挥着重要作用。然而,缺失模态在临床诊断中非常常

    2024年03月13日
    浏览(76)
  • 【3-D深度学习:肺肿瘤分割】创建和训练 V-Net 神经网络,并从 3D 医学图像中对肺肿瘤进行语义分割研究(Matlab代码实现)

     💥💥💞💞 欢迎来到本博客 ❤️❤️💥💥 🏆博主优势: 🌞🌞🌞 博客内容尽量做到思维缜密,逻辑清晰,为了方便读者。 ⛳️ 座右铭: 行百里者,半于九十。 📋📋📋 本文目录如下: 🎁🎁🎁 目录 💥1 概述 📚2 运行结果 🎉3 参考文献 🌈4 Matlab代码实现 使用

    2024年02月15日
    浏览(56)
  • 深度学习之图像分割—— SegNet基本思想和网络结构以及论文补充

    原文链接:SegNet SegNet是2016年cvpr由Cambridge提出旨在解决自动驾驶或者智能机器人的图像语义分割深度网络,开放源码,基于caffe框架。SegNet基于FCN,修改VGG-16网络得到的语义分割网络,有两种版本的SegNet,分别为SegNet与Bayesian SegNet,同时SegNet作者根据网络的深度提供了一个b

    2024年02月06日
    浏览(44)
  • 【论文阅读】MCTformer: 弱监督语义分割的多类令牌转换器

    Multi-class Token Transformer for Weakly Supervised Semantic Segmentation 本文提出了一种新的基于变换的框架来学习类特定对象定位映射作为弱监督语义分割(WSSS)的伪标签    可以利用标准视觉转换器中一个类令牌的参与区域来形成与类无关的定位映射,我们研究了转换器模型是否也可以通

    2024年04月17日
    浏览(56)
  • 【论文阅读】通过3D和2D网络的交叉示教实现稀疏标注的3D医学图像分割(CVPR2023)

    论文:3D Medical Image Segmentation with Sparse Annotation via Cross-Teaching between 3D and 2D Networks 代码:https://github.com/hengcai-nju/3d2dct 问题1 :医学图像分割通常需要大量且精确标注的数据集。但是获取像素级标注是一项劳动密集型的任务,需要领域专家付出巨大的努力,这使得在实际临床场

    2024年02月05日
    浏览(65)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包