论文阅读——Loss odyssey in medical image segmentation

这篇具有很好参考价值的文章主要介绍了论文阅读——Loss odyssey in medical image segmentation。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

Loss odyssey in medical image segmentation

github:https://github.com/JunMa11/SegLossOdyssey

这篇文章回顾了医学图像分割中的20种不同的损失函数,旨在回答:对于医学图像分割任务,我们应该选择哪种损失函数?

首先是一张各类分割函数的图谱:

论文阅读——Loss odyssey in medical image segmentation,论文,人工智能

介绍函数之前先定义字母符号的含义:

论文阅读——Loss odyssey in medical image segmentation,论文,人工智能

论文阅读——Loss odyssey in medical image segmentation,论文,人工智能分别代表分割结果和GT,论文阅读——Loss odyssey in medical image segmentation,论文,人工智能代表里面的每个体素,N是一张图片体素数量,C是类别

损失函数分为四类:即分布不匹配,区域、边界或它们的某种组合。

1. Distribution-based Loss 

基于分布的损失函数旨在最小化两个分布之间的不相似性。以交叉熵cross entropy为代表。

1.1. Cross entropy

论文阅读——Loss odyssey in medical image segmentation,论文,人工智能

对于CNN模型,可以写为:

论文阅读——Loss odyssey in medical image segmentation,论文,人工智能

加权版——Weighted cross entropy (WCE)(2015):

论文阅读——Loss odyssey in medical image segmentation,论文,人工智能

论文阅读——Loss odyssey in medical image segmentation,论文,人工智能,一般和类别占得比例成反比,本文实验中使用类别比例的倒数。另一种使用加权交叉熵的方式是根据GT对每个像素加权。

1.2. TopK loss(2016)

论文阅读——Loss odyssey in medical image segmentation,论文,人工智能

t∈ (0, 1]是个阈值,也就是说,容易分类的像素点(概率>t)被忽略了,另一个实现版本:

论文阅读——Loss odyssey in medical image segmentation,论文,人工智能

论文阅读——Loss odyssey in medical image segmentation,论文,人工智能

本文实验中k=10%

1.3. Focal loss(2018)

论文阅读——Loss odyssey in medical image segmentation,论文,人工智能

通过减少已经分好类的样本的损失来关注困难样本,可以处理前景背景类别不平衡的情况。原始论文中给出γ=2表现最好。

1.4. Distance map penalized cross entropy loss (DPCE)

论文阅读——Loss odyssey in medical image segmentation,论文,人工智能

论文阅读——Loss odyssey in medical image segmentation,论文,人工智能论文阅读——Loss odyssey in medical image segmentation,论文,人工智能

具体地,通过取GT的距离变换的逆来生成Dc。通过这种方式,可以为边界上的像素分配更大的权重。

DPCE损失通过从GT掩码导出的距离图来加权交叉熵。它旨在引导网络将重点放在难以分割的边界区域。

2. Region-based Loss

基于区域的损失函数旨在最小化GT和预测S之间的不匹配或最大化两者的重叠区域。最有代表性的是Dice loss。

2.1. Sensitivity-specificity loss(2015)

论文阅读——Loss odyssey in medical image segmentation,论文,人工智能

将特异性加权得更高来解决类别失衡问题。w控制敏感性和特异性的平衡。

2.2. Dice loss(2016)

有两个变体:

论文阅读——Loss odyssey in medical image segmentation,论文,人工智能

论文阅读——Loss odyssey in medical image segmentation,论文,人工智能

直接优化Dice Similarity Coefficient (DSC)。与加权交叉熵不同,Dice损失不需要对不平衡分割任务进行类重新加权。

2.3. IoU (Jaccard) loss(2016)

论文阅读——Loss odyssey in medical image segmentation,论文,人工智能

和Dice loss很相似,也是直接优化目标类别的分割指标。

2.4. Lovász loss

定义类c ∈ C的像素误差:

论文阅读——Loss odyssey in medical image segmentation,论文,人工智能

论文阅读——Loss odyssey in medical image segmentation,论文,人工智能

论文阅读——Loss odyssey in medical image segmentation,论文,人工智能

论文阅读——Loss odyssey in medical image segmentation,论文,人工智能

与IoU损失类似,Lovasz损失也是直接优化Jaccard指数,但它使用了不同的替代策略。特别地,IoU损失(也称为软Jaccard)简单地用softmax概率代替Jaccard索引中的分割,while Lovász loss  uses a piecewise linear convex surrogate to the IoU loss based on the Lovász extension of submodular set functions。

2.5. Tversky loss

论文阅读——Loss odyssey in medical image segmentation,论文,人工智能

这个是改进的Dice loss,旨在得到更好的P、R的平衡,强调错误的负类样本。α,β是超参数,控制false negatives and false positives的平衡。

2.6. Generalized Dice loss

论文阅读——Loss odyssey in medical image segmentation,论文,人工智能

论文阅读——Loss odyssey in medical image segmentation,论文,人工智能,is used to provide invariance to different label set properties.用于为不同的标签集属性提供不变性。

这个损失函数是多类别Dice loss的扩展,每个类别的权重与标签频率成反比。

2.7. Focal Tversky loss

论文阅读——Loss odyssey in medical image segmentation,论文,人工智能

γ∈[1, 3]。把focal loss用在Tversky loss上,使得困难样本概率低。

2.8. Asymmetric similarity loss

论文阅读——Loss odyssey in medical image segmentation,论文,人工智能

原始论文中β=1.5。当α+β=1时变为Tversky loss的一个特例。

Dice loss可以被视为准确度和召回率的调和平均值,它对假阳性(FP)和假阴性(FN)的权重相等。Asymmetric similarity loss的动机是通过引入加权参数β来更好地调整FPs和FNs的权重(并在精度和召回率之间实现更好的平衡)。

2.9. Penalty loss

论文阅读——Loss odyssey in medical image segmentation,论文,人工智能

论文阅读——Loss odyssey in medical image segmentation,论文,人工智能

论文阅读——Loss odyssey in medical image segmentation,论文,人工智能,k is a non-negative penalty coefficient. When k = 0, pGD is equivalent to generalized Dice. When k > 0, pGD gives additional weights to false positives and false negatives. In the original paper (Su et al., 2019), k = 2.5 corresponds the best performance.

3. Boundary-based Loss

基于边界的损失函数,相对比较新,旨在最小化预测S和GT之间的距离。

3.1. Boundary (BD) loss(2019,2021)

有两种不同的框架来计算两个边界之间的距离。一种是微分框架,它将边界曲线上每个点的运动计算为沿曲线法线的速度。另一种是积分框架,通过计算两个边界的失配区域之间的界面上的积分来近似距离。微分框架不能直接用作网络softmax输出的损失,因为它是不可微分的。为了以微分的方式计算两个边界之间的距离论文阅读——Loss odyssey in medical image segmentation,论文,人工智能,Boundary (BD) loss 使用积分框架来公式化边界失,这可以避免涉及边界曲线点的局部微分计算。

论文阅读——Loss odyssey in medical image segmentation,论文,人工智能

论文阅读——Loss odyssey in medical image segmentation,论文,人工智能

3.2. Hausdorff Distance (HD) loss

Hausdorff Distance (HD)距离是一种基于边界的度量,广泛用于评估分割方法。然而,在训练过程中直接最小化HD是难以解决的,并可能导致训练不稳定。为了解决这个问题,HD可以通过GT距离变换来近似。网络可以通过以下HD损失功能进行训练,以减少HD:

论文阅读——Loss odyssey in medical image segmentation,论文,人工智能

dG and dS分别是GT和预测分割的距离变换地图。距离变换计算了每个像素与对象边界之间的最短距离。

上面这两种边界损失用于训练神经网络时,应与基于区域的损失(例如Dice loss)相结合,以减少训练的不稳定性。

4. Compound Loss

混合损失是上面这些损失函数的加权。

4.1. Combo loss

论文阅读——Loss odyssey in medical image segmentation,论文,人工智能

4.2. Exponential Logarithmic loss (ELL)

论文阅读——Loss odyssey in medical image segmentation,论文,人工智能

对Dice损失和交叉熵损失进行指数和对数变换。通过这种方式,可以迫使网络在本质上更多地关注不太准确预测的结构。

4.3. Dice loss with focal loss

论文阅读——Loss odyssey in medical image segmentation,论文,人工智能

4.4. Dice loss with TopK loss

论文阅读——Loss odyssey in medical image segmentation,论文,人工智能

此外,文章还提到了有其他方法,一笔带过,未列出公式。

实验

3D U-Net+数据增强+Adam

三种损失函数在训练过程中需要额外的调度策略:Lova´sz loss, boundaries loss, and Hausdorff distance loss。对于 Lova´sz loss, 原论文作者建议先用交叉熵优化,然后用Lova´sz loss微调;对于 boundary loss 和 Hausdorff distance loss 应该和 Dice loss 结合使用:

论文阅读——Loss odyssey in medical image segmentation,论文,人工智能

α, β > 0。对于边界损失,(Kervadec et al.,2019)建议使用Dice损失来主导初始训练,从而稳定训练过程,快速获得合理的初始分割。具体来说,他们最初设置权重β=1−α和α=1,并在每个epoch后将α减少0.01,直到达到0.01的值。对于Hausdorff距离损失,(Karimi和Salcudean,2020)将α设置为基于HD的损失项的平均值与DSC损失项的均值之比,并且β=1。最近的一项实证研究(Ma et al.,2020)表明,实施细节会对绩效产生显著影响。在我们的实验中,我们首先用Dice损失对网络进行训练,然后用建议的调度策略对BD损失和HD损失进行微调,因为我们发现这种训练技巧可以获得稳健的训练过程,并给出最佳性能。所有其他17个损失函数都可以在训练期间以即插即用的方式使用,而无需任何特定的调度技巧。

在四个分割数据集评估,包括balanced and imbalanced foreground-background, binary and multi-class segmentation. 类别平衡的、不平衡的、二分类的多分类的都包括了。

数据集情况:

论文阅读——Loss odyssey in medical image segmentation,论文,人工智能

评估指标:Dice similarity coefficient 和 Normalized Surface Distance (NSD)

论文阅读——Loss odyssey in medical image segmentation,论文,人工智能

实验结果

论文阅读——Loss odyssey in medical image segmentation,论文,人工智能

1. Single segmentation task

1.1. Mildly imbalanced segmentation

论文阅读——Loss odyssey in medical image segmentation,论文,人工智能

论文阅读——Loss odyssey in medical image segmentation,论文,人工智能

Mildly imbalanced segmentation结果只看liver数据集上的结果。

大多数损失函数(17/20)在DSC高于0.90的情况下获得高度准确的结果。

DiceTopK损失获得最佳DSC和NSD,而pGDice损失获得最低DSC,TopK损耗在DSC和NSD中都获得最低的性能。

图2显示TopK loss 和 pGDice loss方差比较大。图3是失败示例,显示TopK loss 和 pGDice loss倾向于过度分割。

1.2. Highly imbalanced tumor segmentation

论文阅读——Loss odyssey in medical image segmentation,论文,人工智能

论文阅读——Loss odyssey in medical image segmentation,论文,人工智能

看liver tumor数据集上的结果。DiceHD,DiceBD表现比较好。加权交叉熵表现不好。

1.3. Highly imbalanced organ segmentation

论文阅读——Loss odyssey in medical image segmentation,论文,人工智能

DiceFocal loss表现最好,交叉熵不好。

1.4. Multi-class segmentation with both mildly and highly imbalanced labels

论文阅读——Loss odyssey in medical image segmentation,论文,人工智能

论文阅读——Loss odyssey in medical image segmentation,论文,人工智能

研究包含轻度和高度不平衡标签的多类分割任务

DiceFocal loss, DiceHD loss, and DiceTopK loss表现好

2. Different variants of TopK loss

论文阅读——Loss odyssey in medical image segmentation,论文,人工智能

除了liver数据集,其他的k=10%效果比较好,但是liver数据集需要90%,作者分析的原因是liver数据集在训练期间仅使用10%的像素对于肝脏是不够的,因为肝脏非常大(最大的腹部器官)。然而,在这项工作中,我们主要关注标签不平衡的任务。因此,我们选择TopK-10%的损失作为默认的TopK损失,因为它在具有挑战性的分割任务中获得了更好的性能。

所以应该就是说,标签不平衡的比较严重的话,k小一些,否则就大一些。

3. Different variants of Dice loss

论文阅读——Loss odyssey in medical image segmentation,论文,人工智能

4. Rank Results

作者自己设计了一套排序规则(具体看原文吧),然后给这些指标排序:

论文阅读——Loss odyssey in medical image segmentation,论文,人工智能

论文阅读——Loss odyssey in medical image segmentation,论文,人工智能文章来源地址https://www.toymoban.com/news/detail-761550.html

到了这里,关于论文阅读——Loss odyssey in medical image segmentation的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • 《VM-UNet: Vision Mamba UNet for Medical Image Segmentation》论文阅读及代码复现

    论文地址:[2402.02491] VM-UNet: Vision Mamba UNet for Medical Image Segmentation (arxiv.org) 代码地址:JCruan519/VM-UNet: (ARXIV24) This is the official code repository for \\\"VM-UNet: Vision Mamba UNet for Medical Image Segmentation\\\". (github.com) 摘要 : 在医学图像分割领域,基于细胞神经网络和基于变换器的模型都得到了广

    2024年03月24日
    浏览(61)
  • 【论文阅读笔记】Swin-Unet: Unet-like Pure Transformer for Medical Image Segmentation

    Swin-Unet: Unet-like Pure Transformer for Medical Image Segmentation Swin-Unet:用于医学图像分割的类Unet纯Transformer 2022年发表在 Computer Vision – ECCV 2022 Workshops Paper Code 在过去的几年里,卷积神经网络(CNN)在医学图像分析方面取得了里程碑式的成就。特别是基于U型结构和跳跃连接的深度神经

    2024年01月23日
    浏览(49)
  • [深度学习论文笔记]UNETR: Transformers for 3D Medical Image Segmentation

    UNETR: Transformers for 3D Medical Image Segmentation UNETR:用于三维医学图像分割的Transformer Published: Oct 2021 Published in: IEEE Winter Conference on Applications of Computer Vision (WACV) 2022 论文:https://arxiv.org/abs/2103.10504 代码:https://monai.io/research/unetr 摘要:   过去十年以来,具有收缩路径和扩展路径

    2024年01月24日
    浏览(52)
  • FCT: The Fully Convolutional Transformer for Medical Image Segmentation 论文解读

    论文:The Fully Convolutional Transformer for Medical Image Segmentation (thecvf.com) 代码:Thanos-DB/FullyConvolutionalTransformer (github.com) 期刊/会议:WACV 2023 我们提出了一种新的transformer,能够分割不同形态的医学图像。 医学图像分析的细粒度特性所带来的挑战意味着transformer对其分析的适应仍处

    2024年02月10日
    浏览(41)
  • 医学图像分割方向优质的论文及其代码【Medical Image Segmentation】UNet、transformer、计算机视觉

      作者:Yifei Chen, Chenyan Zhang, Yifan Ke, Yiyu Huang, Xuezhou Dai, Feiwei Qin   中文摘要: 由于收集过程具有挑战性、标记成本高、信噪比低以及生物医学图像特征复杂,传统的监督学习方法在医学图像分割方面历来遇到一定的限制。 本文提出了一种半监督模型DFCPS,创新性地融合了

    2024年04月13日
    浏览(44)
  • 【论文阅读笔记】Pre-trained Universal Medical Image Transformer

    Luo L, Chen X, Tang B, et al. Pre-trained Universal Medical Image Transformer[J]. arXiv preprint arXiv:2312.07630, 2023.【代码开源】 【论文概述】 本文介绍了一种名为“预训练通用医学图像变换器(Pre-trained Universal Medical Image Transformer,简称PUMIT)”的新型算法,该算法旨在解决标记医学图像数据稀缺

    2024年02月04日
    浏览(44)
  • 【论文阅读】SynDiff Unsupervised Medical Image Translation with Adversarial Diffusion Models

    Unsupervised Medical Image Translation with Adversarial Diffusion Models 论文大致翻译和主要内容讲解 通过源-目标通道转换对缺失图像进行填充可以提高医学成像协议的多样性。合成目标图像的普遍方法包括通过生成性对抗网络(GAN)的一次映射。然而,隐含地描述图像分布的Gan模型可能会受

    2024年04月17日
    浏览(35)
  • Medical Imaging AI – Image Segmentation using Deep Lear

    作者:禅与计算机程序设计艺术 Image segmentation is one of the key tasks in medical image analysis and computer vision that involves dividing an entire image into multiple parts or regions based on some criteria such as color, texture, shape, etc., so that each region represents a different object or structure present in the image. It helps to e

    2024年02月06日
    浏览(44)
  • RIS 系列 Mask Grounding for Referring Image Segmentation 论文阅读笔记

    写在前面   一篇 Arxiv 上面的新文章,看看清华大佬们的研究。 论文地址:Mask Grounding for Referring Image Segmentation 代码地址:原论文说将会开源,静待佳音~ 预计提交于:CVPR 2024 Ps:2023 年每周一篇博文阅读笔记,主页 更多干货,欢迎关注呀,期待 6 千粉丝有你的参与呦~   

    2024年02月03日
    浏览(50)
  • PolyFormer: Referring Image Segmentation as Sequential Polygon Generation 论文阅读笔记

    写在前面   该忙的事情忙的差不多了,继续看论文写笔记,把之前两个月落下来的补回来!(还差7篇博文),欢迎关注,持续高产。 论文地址:PolyFormer: Referring Image Segmentation as Sequential Polygon Generation 代码地址:作者暂未提供 预计投稿在 CVPR 2023,昨天还是前天放榜了,不

    2024年02月07日
    浏览(42)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包