弱监督语义分割(Weakly-Supervised Semantic Segmentation)

这篇具有很好参考价值的文章主要介绍了弱监督语义分割(Weakly-Supervised Semantic Segmentation)。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

语义分割(Semantic Segmentation)

语义分割是指将图像中的每个像素分类为一个实例,其中每个实例都对应于一个类。
这项技术一直是计算机视觉图像领域的主要任务之一。而在实际应用中,由于能准确地定位到物体所在区域并以像素级的精度排除掉背景的影响,一直是精细化识别、图像理解的可靠方式。

而构建语义分割数据集需要对每张图像上的每个像素进行标注,所需要的人力物力让实际业务项目投入产出比极低。(像素级标注
针对这个问题,仅需图像级标注即可达到接近的分割效果的弱监督语义分割是近年来语义分割相关方向研究的热点。

弱监督语义分割(Weakly-Supervised Semantic Segmentation)

弱监督语义分割通过利用更简单易得的图像级标注,以训练分类模型的方式获取物体的种子分割区域并优化,从而实现图像的像素级、密集性预测。

在训练深度分割模型时,可以使用不同级别的监督,从像素级的注释(监督学习)、图像级和边界框注释(半监督学习)到完全无注释的对象(无监督学习),其中最后两个级别的注释属于弱监督[9,38]。训练该架构依赖于大量的像素级标记数据,这是耗时和昂贵的,特别是医学图像中的像素级标签。然而,可以以相对快速和廉价的方式获得大量具有图像级标签的图像。近年来出现了许多弱监督语义分割方法,以减轻了像素级标注的巨大负担,并取得了惊人的性能,甚至接近于监督学习

常见的弱监督语义分割可分为以下四类(:
① 图像级标注:仅标注图像中相关物体所属的类别,是最简单的标注;
② 物体点标注:标注各个物体上某一点,以及相应类别;
③ 物体框标注:标注各个物体所在的矩形框,以及相应类别;
④ 物体划线标注:在各个物体上划一条线,以及相应类别。
弱监督语义分割(Weakly-Supervised Semantic Segmentation)
WSSS的一般过程如下:首先需要生成像素级伪掩模,然后由弱监督算法生成伪掩模。然后通过一个深度卷积神经网络来训练这些图像。最后,对输出结果和伪掩模进行了反向传播,使损失函数最小化,提高了模型的性能。可见:这些技术依赖于较弱的监督形式,如边界框、点或弯弯曲曲的线、图像级标签等。
其中,图像级标签是最简单的弱标签形式,相对容易获得。训练图像只根据它们所属的类来标记,而不是根据它们在图像中的位置。然而,这也使得使用图像级标签来训练分割网络具有挑战性,因此许多研究者开始考虑建立图像级标签和像素级标签之间的相关性。

在这里说明一下图像级标注的处理:

基于图像级标注的弱监督语义分割大多采用多模块串联的形式进行。
首先,利用图像级标注的图像类别标签,通过单标签或多标签分类的方式,训练出一个分类模型。该分类模型通过计算图像中相应类别的类别特征响应图 CAM[3]来当作分割伪标签的种子区域;接着,使用优化算法(如 CRF[4]、AffinityNet[5]等)优化和扩张种子区域,获得最终的像素级的分割伪标签;最后,使用图像数据集和分割伪标签训练传统的分割算法(如 Deeplab 系列[6])。
弱监督语义分割(Weakly-Supervised Semantic Segmentation)

有关CAM的介绍,将会在下一篇博文中介绍,感谢阅读!文章来源地址https://www.toymoban.com/news/detail-494025.html

到了这里,关于弱监督语义分割(Weakly-Supervised Semantic Segmentation)的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • 医学影像系统弱监督语义分割集成的探索

    利用复杂数据集的低质量CAM预测来提高结果的准确性 使用低阈值CAMs以高确定性覆盖目标对象 通过组合多个低阈值cam,在突出显示目标对象的同时均匀地消除它们的错误 代码链接 文章链接 首先,在目标数据集上训练分类器模型(resnet) 其次,使用Grad-CAM为不同的分类器创建

    2023年04月09日
    浏览(41)
  • 用于语义图像分割的弱监督和半监督学习:弱监督期望最大化方法

    这时一篇2015年的论文,但是他却是最早提出在语义分割中使用弱监督和半监督的方法,SAM的火爆证明了弱监督和半监督的学习方法也可以用在分割上。 这篇论文只有图像级标签或边界框标签作为弱/半监督学习的输入。使用期望最大化(EM)方法,用于弱/半监督下的语义分割模

    2024年02月11日
    浏览(67)
  • 用于弱监督语义分割的多类token transformer

    本文提出了一种新的基于Transformer的框架,将特定于类的对象定位映射学习为弱监督语义分割(WSSS)的伪标签。 标准视觉Transformer中一个类Token 的参与区域可以被利用来形成一个类不确定的定位映射 本文研究了Transformer模型是否也可以通过学习Transformer中的多个类Token 来有效地捕

    2023年04月09日
    浏览(48)
  • 第十章:重新审视扩张卷积:一种用于弱监督和半监督语义分割的简单方法

            尽管取得了显著的进展,弱监督分割方法仍然不如完全监督方法。我们观察到性能差距主要来自于它们在从图像级别监督中学习生成高质量的密集目标定位图的能力有限。为了缓解这样的差距,我们重新审视了扩张卷积[1]并揭示了它如何以一种新颖的方式被用于有

    2024年02月15日
    浏览(50)
  • 二十三章:抗对抗性操纵的弱监督和半监督语义分割的属性解释

            弱监督语义分割从分类器中生成像素级定位,但往往会限制其关注目标对象的一个小的区域。AdvCAM是一种图像的属性图,通过增加分类分数来进行操作。这种操作以反对抗的方式实现,沿着像素梯度的相反方向扰动图像。它迫使最初被认为不具有区分度的区域参与

    2024年02月15日
    浏览(66)
  • 【数据生成】——Semantic Image Synthesis via Diffusion Models语义分割数据集生成论文浅读

    语义分割,数据生成 Denoising Diffusion Probabilistic Models (DDPMs) 在各种图像生成任务中取得了显著的成功,相比之下,生成对抗网络 (GANs) 的表现不尽如人意。最近的语义图像合成工作主要遵循事实上的基于 GAN 的方法,这可能导致生成图像的质量或多样性不尽如人意。在本文中,

    2024年02月04日
    浏览(46)
  • 【论文阅读】MCTformer: 弱监督语义分割的多类令牌转换器

    Multi-class Token Transformer for Weakly Supervised Semantic Segmentation 本文提出了一种新的基于变换的框架来学习类特定对象定位映射作为弱监督语义分割(WSSS)的伪标签    可以利用标准视觉转换器中一个类令牌的参与区域来形成与类无关的定位映射,我们研究了转换器模型是否也可以通

    2024年04月17日
    浏览(55)
  • BiSeNet:用于实时语义分割的双边分割网络——BiSeNet:Bilateral Segmentation Network for Real-time Semantic Segmentation

            语义分割需要丰富的空间信息和较大的感受野。然而,现代的方法通常为了实现实时推断速度而牺牲空间分辨率,导致性能下降。本文提出了一种新的双边分割网络(BiSeNet)来解决这个问题。我们首先设计了一个具有小步长的空间路径来保留空间信息并生成高分

    2024年04月28日
    浏览(39)
  • 阿里团队轻量级语义分割框架——AFFormer:Head-Free Lightweight Semantic Segmentation with Linear Transformer

    代码地址:dongbo811/AFFormer (github.com) 文章地址 现有的语义分割工作主要集中在设计有效的解码器上;然而, 整体结构引入的计算负载长期被忽视 ,阻碍了其在资源受限硬件上的应用。本文提出了一种专门用于语义分割的 无头轻量级架构 ,命名为自适应频率Transformer( AFForme

    2024年02月04日
    浏览(34)
  • 第二十一章:CCNet:Criss-Cross Attention for Semantic Segmentation ——用于语义分割的交叉注意力

    原文题目:《CCNet:Criss-Cross Attention for Semantic Segmentation 》 原文引用:Huang Z, Wang X, Huang L, et al. Ccnet: Criss-cross attention for semantic segmentation[C]//Proceedings of the IEEE/CVF international conference on computer vision. 2019: 603-612. 原文链接: https://openaccess.thecvf.com/content_ICCV_2019/papers/Huang_CCNet_Criss

    2024年02月16日
    浏览(42)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包