【论文阅读笔记】Fibroglandular Tissue Segmentation in Breast MRI using Vision Transformers--A multi-institut

这篇具有很好参考价值的文章主要介绍了【论文阅读笔记】Fibroglandular Tissue Segmentation in Breast MRI using Vision Transformers--A multi-institut。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

Müller-Franzes G, Müller-Franzes F, Huck L, et al. Fibroglandular Tissue Segmentation in Breast MRI using Vision Transformers–A multi-institutional evaluation[J]. arXiv preprint arXiv:2304.08972, 2023.【代码开放】

本文创新点一般,只做简单总结

【论文概述】

本文介绍了一项关于乳房MRI中纤维腺体组织分割的研究,主要内容是开发并评估了一种基于变压器架构的神经网络模型(TraBS),用于多机构MRI数据中的乳房分割。这项研究显示,TraBS模型在内部和外部验证集上的表现优于现有的基于卷积神经网络的模型(如nnUNet),尤其在处理乳房密度和背景腺体增强(BPE)方面的自动量化评估。研究的目的是提高乳房MRI筛查中乳房密度和腺体增强量化的准确性。

【模型结构】

  • 基于Swin UNETR:TraBS是基于Swin UNETR架构构建的,这是一种结合了UNet和Transformer结构的网络,特别适用于医学图像分割任务。
  • 非等向核和步幅:在模型的前两个阶段使用了非等向的核和步幅。这种设计保持了深度的恒定,有助于更好地处理图像的空间信息。
  • 深度监督:在较低分辨率层添加了深度监督,以提高网络在各个层次上的学习能力和精度。
【论文阅读笔记】Fibroglandular Tissue Segmentation in Breast MRI using Vision Transformers--A multi-institut,深度学习,MRI分割,论文阅读,笔记

【数据集和硬件】

本文中使用了两个乳房MRI数据集,分别命名为“UKA”和“DUKE”:

  1. UKA数据集:收集自德国亚琛大学医院(University Hospital Aachen),包含2010年至2019年间的9751例乳房MRI检查数据,涵盖5086名女性。从中选取了200例检查(包括104例癌症和55例纤维腺瘤)进行研究。
  2. DUKE数据集:收集自美国杜克医院(Duke Hospital),为公开可用数据,包括2000年至2014年间的922例有活检证实的侵袭性乳腺癌病例。最终从中随机选取40例进行手动分割。

【实验结果】

重点对比了基于Transformer的模型TraBS与传统的基于卷积神经网络的模型(如nnUNet)在内部数据集和外部数据集上的性能表现。以下是这两方面的详细总结:

  • Transformer在内部数据集上的表现优于CNN

    • 性能比较:TraBS在内部测试集上的Dice分数比nnUNet高(0.916 ± 0.067 对比 0.909 ± 0.069),说明TraBS在内部数据集上的分割精度更高。
    • 平均对称表面距离:TraBS在内部测试集上的平均对称表面距离也比nnUNet低,分别为0.548 ± 2.195 mm与0.657 ± 2.856 mm。这表明TraBS在内部数据集上的分割更为精确,接近于手动分割的结果。
  • Transformer在外部数据集上的表现也优于CNN

    • Dice分数:在外部测试集上,TraBS的Dice分数(0.864 ± 0.081)同样高于nnUNet(0.824 ± 0.144),表明TraBS在不同机构收集的数据上具有更好的泛化能力和分割精度。
    • 平均对称表面距离:TraBS在外部测试集上的平均对称表面距离也较低(0.584 ± 0.413 mm 对比 0.727 ± 0.620 mm),进一步证实了其更高的分割精度和泛化能力。
  • 综合分析

这些结果表明,相较于传统的基于CNN的模型,基于变压器的TraBS模型在乳房MRI中纤维腺体组织的分割任务上表现出更高的精度和泛化能力。这是因为TraBS能够更好地处理和理解图像中的长期依赖关系,从而提高了在不同数据集上的性能。这一发现对于提高乳房密度和背景腺体增强量化的准确性具有重要意义,特别是在多机构和多样化数据环境下。文章来源地址https://www.toymoban.com/news/detail-768763.html

到了这里,关于【论文阅读笔记】Fibroglandular Tissue Segmentation in Breast MRI using Vision Transformers--A multi-institut的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • 突破经典网格特征?AutoFocusFormer: Image Segmentation off the Grid 论文阅读笔记

    写在前面   这一周赶上五一五天假了,朋友们出去 happy 了吗?有没有赶上人山人海的热闹?反正我只是在 5.1 那天出去走走,哈哈。   这是一篇关于实例分割的文章,所解决的问题在于实例分割中需要的小目标像素分辨率太低,于是本文提出一种自适应下采样的方法来

    2024年02月06日
    浏览(101)
  • 【论文阅读笔记】SegVol: Universal and Interactive Volumetric Medical Image Segmentation

    Du Y, Bai F, Huang T, et al. SegVol: Universal and Interactive Volumetric Medical Image Segmentation[J]. arXiv preprint arXiv:2311.13385, 2023.[代码开源] 【论文概述】 本文思路借鉴于自然图像分割领域的 SAM ,介绍了一种名为SegVol的先进医学图像分割模型,旨在构建一种 图像分割基础模型 ,这是一个面向体

    2024年01月16日
    浏览(46)
  • PolyFormer: Referring Image Segmentation as Sequential Polygon Generation 论文阅读笔记

    写在前面   该忙的事情忙的差不多了,继续看论文写笔记,把之前两个月落下来的补回来!(还差7篇博文),欢迎关注,持续高产。 论文地址:PolyFormer: Referring Image Segmentation as Sequential Polygon Generation 代码地址:作者暂未提供 预计投稿在 CVPR 2023,昨天还是前天放榜了,不

    2024年02月07日
    浏览(42)
  • 【论文阅读笔记】Prompt Tuning for Parameter-efficient Medical Image Segmentation

    Fischer M, Bartler A, Yang B. Prompt tuning for parameter-efficient medical image segmentation[J]. Medical Image Analysis, 2024, 91: 103024. 【开源】 【核心思想】 本文的核心思想是提出了一种用于医学图像分割的参数高效的提示调整(Prompt Tuning)方法。这种方法基于预训练的神经网络,通过插入可学习的

    2024年01月17日
    浏览(54)
  • 【论文阅读笔记】A Recent Survey of Vision Transformers for Medical Image Segmentation

    Khan A, Rauf Z, Khan A R, et al. A Recent Survey of Vision Transformers for Medical Image Segmentation[J]. arXiv preprint arXiv:2312.00634, 2023. 【论文概述】 本文是关于医学图像分割中视觉变换器(Vision Transformers,ViTs)的最新综述。文中详细回顾了ViTs及其与卷积神经网络(CNNs)结合形成的混合视觉Trans

    2024年02月02日
    浏览(63)
  • RIS 系列 See-Through-Text Grouping for Referring Image Segmentation 论文阅读笔记

    写在前面   最近 Arxiv 没啥新东西了,找篇老的文章读读,看看它们之间的区别在哪里。 论文地址:See-Through-Text Grouping for Referring Image Segmentation 代码地址:源文未提供 收录于:ICCV 2019 Ps:2023 年的最后一篇博文阅读笔记,我今年的 flag 也实现啦。主页 更多干货,欢迎关注

    2024年02月03日
    浏览(46)
  • RIS 系列 Beyond One-to-One: Rethinking the Referring Image Segmentation 论文阅读笔记

    写在前面   又是一周,没思路调代码囧么办?当然是继续淦论文了,(┬_┬) 论文地址:Beyond One-to-One: Rethinking the Referring Image Segmentation 代码地址:https://github.com/toggle1995/RIS-DMMI 收录于:ICCV2023 Ps:2023 年每周一篇博文阅读笔记,主页 更多干货,欢迎关注呀,期待 6 千粉丝

    2024年02月20日
    浏览(41)
  • 【论文阅读笔记】Swin-Unet: Unet-like Pure Transformer for Medical Image Segmentation

    Swin-Unet: Unet-like Pure Transformer for Medical Image Segmentation Swin-Unet:用于医学图像分割的类Unet纯Transformer 2022年发表在 Computer Vision – ECCV 2022 Workshops Paper Code 在过去的几年里,卷积神经网络(CNN)在医学图像分析方面取得了里程碑式的成就。特别是基于U型结构和跳跃连接的深度神经

    2024年01月23日
    浏览(50)
  • 【论文阅读笔记】A literature survey of MR-based brain tumor segmentation with missing modalities

    Zhou T, Ruan S, Hu H. A literature survey of MR-based brain tumor segmentation with missing modalities[J]. Computerized Medical Imaging and Graphics, 2023, 104: 102167. 这篇文献综述重点探讨了在磁共振成像(MRI)用于脑肿瘤分割时面临的一项主要挑战:部分MRI模态的缺失(本文将范围限定为 在训练期间可以使用

    2024年01月19日
    浏览(52)
  • 论文笔记:MANet: Multi-Scale Aware-Relation Network for Semantic Segmentation in Aerial Scenes

    论文地址:MANet: Multi-Scale Aware-Relation Network for Semantic Segmentation in Aerial Scenes | IEEE Journals Magazine | IEEE Xploreb 该论文没有公布源码 废话不多说,这篇文章就目前航天遥感所面对的挑战:场景和物体尺度的剧烈变化,提出了自己的模型。遥感图像变化剧烈主要是因为航拍角度、航

    2024年02月04日
    浏览(39)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包