论文阅读笔记——A2FSeg:用于医学图像分割自适应多模态融合网络

这篇具有很好参考价值的文章主要介绍了论文阅读笔记——A2FSeg:用于医学图像分割自适应多模态融合网络。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

论文地址: https://www.semanticscholar.org/paper/A2FSeg%3A-Adaptive-Multi-modal-Fusion-Network-for-Wang-Hong/330f94e291a9b881ad14ca500f8d96e185d43b15
代码仓库: https://github.com/Zirui0623/A2FSeg/tree/main?tab=readme-ov-file

摘要:

磁共振成像(MRI)在多模式脑肿瘤分割中发挥着重要作用。然而,缺失模态在临床诊断中非常常见,这将导致分割性能严重下降。在本文中,我们提出了一种用于脑肿瘤分割的简单自适应多模态融合网络,该网络具有两个阶段的特征融合,包括简单的平均融合和基于注意机制的自适应融合。 两种融合技术都能够处理缺失模态的情况,并有助于改善分割结果,尤其是自适应分割结果。我们在 BraTS2020 数据集上评估我们的方法,与四种最新方法相比,在不完整的多模态脑肿瘤分割方面实现了最先进的性能。我们的 A2FSeg(平均和自适应融合分割网络)简单而有效,能够处理任意数量的图像模态以实现不完整的多模态分割。

引言:

从医学图像扫描中提取脑肿瘤在进一步分析和临床诊断中发挥着重要作用。通常,脑肿瘤包括瘤周水肿、增强肿瘤和非增强肿瘤核心。由于不同的模态呈现出脑肿瘤成分的不同清晰度,因此在脑肿瘤分割任务中我们经常使用多模态图像扫描,例如T1、T1c、T2和Flair。已经开展了使用从所有四种模式收集的图像扫描来处理脑肿瘤分割的工作。然而,在实践中,我们面临着同时收集所有模式的挑战,往往会丢失一种或多种模式。因此,在本文中,我们考虑了在缺失图像模式的情况下分割脑肿瘤的问题。
当前处理缺失模态的图像分割方法可分为三类,包括:(1)暴力方法:为每种可能的模态组合设计单独的分割网络(2)补全方法:合成缺失的模态以补全用于传统图像分割的全部模态,以及(3)基于融合的方法:将不同模态的图像映射到相同的特征空间进行融合,然后根据融合的特征分割脑肿瘤 第一类方法具有良好的分割性能;然而,它们是资源密集型的,并且通常需要更多的培训时间。第二类方法的性能受到缺失模态的合成质量的限制。第三类通常只有一个网络来处理缺失模态的不同场景,这是实践中最常用的一种。
为了处理各种数量的模态输入,HeMIS通过计算从不同模态提取的特征图作为融合特征的均值和方差,将不同模态的图像特征投影到相同的特征空间中。为了提高特征融合的表示,HVED 将每种模态的输入视为高斯分布,并通过高斯混合模型融合来自不同模态的特征图。另一方面,RobustSeg将模态特征分解为模态不变的内容代码和模态特定的外观代码,以实现更准确的融合和分割。考虑到不同模态下观察到的脑肿瘤区域的清晰度不同,RFNet引入了一种注意力机制来自适应地建模模态和肿瘤区域的关系。基于图结构和注意力机制,MFI被提出来学习不同缺失情况下模态之间的自适应互补信息。
由于当前模型的复杂性,我们倾向于开发一个简单的模型,采用简单的平均融合和注意力机制。这两种技术被证明在处理缺失模态和多模态融合方面是有效的。受 MAML的启发,我们提出了一种名为 A2FSeg(平均和自适应融合分割网络,见图 1)的模型,该模型有两个融合步骤,即平均融合和基于注意力的自适应融合,以集成来自不同模态用于分割的特征。尽管我们的融合想法非常简单,但 A2FSeg 在 BraTS2020 数据集上的不完整多模态脑肿瘤图像分割任务中实现了最先进的 (SOTA) 性能。我们在本文中的贡献总结如下:

  1. 我们提出了一种简单的多模态融合网络 A2FSeg,用于脑肿瘤分割,它是通用的,可以扩展到任意数量的不完整模态图像分割。
  2. 我们在 BraTS 2020 数据集上进行实验,实现了 SOTA 分割性能,整个肿瘤的平均 Dice 核心为 89.79%,肿瘤核心为 82.72%,增强肿瘤为 66.71%。

方法

论文阅读笔记——A2FSeg:用于医学图像分割自适应多模态融合网络,医疗 + 多模态论文阅读笔记,论文阅读,笔记
Fig 1:我们提出的自适应多模态融合网络(A2FSeg,平均和自适应融合分割网络的缩写)的概述。虚线表示缺失某些模态的可能性。如果是这样,平均融合模块和自适应融合模块都会忽略缺失的。最终的肿瘤掩码是根据自适应融合后的特征图来预测的,如红色实线箭头所示。 (彩色效果最佳)(在线彩色图)
图 1 展示了我们的 A2FSeg 的网络架构。它由四个用于特定模态特征提取的子网络,一个平均融合模块:用于在第一阶段简单地融合来自可用模态的特征,以及一个基于注意力机制的自适应融合模块,用于在第二阶段再次自适应地融合这些特征。

模态特定特征提取模块

在融合之前,我们首先使用 nnUNet 模型为每种单一模态提取特征,如图 1 所示。特别的,MSFE模型从特定模态 m m m(即 I m ∈ R H × W × D \mathbf{I}_{m}\in\mathbb{R}^{H\times W\times D} ImRH×W×D m ∈ { T 1 ,  T 2 , T 1 c, Flair } m\in\{\text{T}1,\text{ T}2,\text{T}1\text{c, Flair}\} m{T1, T2,T1c, Flair})进行3D图像扫描,并输出相应的图像特征 F m ∈ R C × H f × W f × D f \mathbf{F}_{m}\in\mathbb{R}^{C\times H_{f}\times W_{f}\times D_{f}} FmRC×Hf×Wf×Df,这里,通道数C=32; Hf 、Wf 和Df 是特征图Fm 的高度、宽度和深度,它们与输入图像具有相同的尺寸。对于每种单一模态,每个 MSFE 模块都受到图像分割掩模的监督,以加快其收敛速度,并为以后的融合提供良好的特征提取。所有四个 MSFE 都具有相同的架构,但权重不同。

平均融合模块

为了聚合来自不同模态的图像特征并处理丢失一个或多个模态的可能性,我们使用来自不同模态的可用特征的平均值作为第一个融合结果。即,我们得到一个融合平均特征 F ˉ = 1 N m ∑ m = 1 N m F m \bar{\mathbf{F}}=\frac1{N_m}\sum_{m=1}^{N_m}\mathbf{F}_m Fˉ=Nm1m=1NmFm,这里 N m {N_m} Nm是可用模态的数目,例如,如图1所示,如果一次迭代中只有前两种模态可用,则 N m = 2 {N_m} = 2 Nm=2,我们将取这两种模态的平均值,忽略那些缺失的模态。

自适应融合模块

由于每种模态对最终肿瘤分割的贡献不同,与 MAML类似,我们采用注意力机制来衡量每种模态对最终分割的体素水平贡献。如图 1 所示,为了生成特定模态 m m m的注意力图,我们将 MSFE 模块 F m F_m Fm 提取的特征与平均融合后的平均特征 F ˉ \bar{F} Fˉ 串联起来,并通过卷积层生成初始注意力权重: W m = σ ( F m ( [ F ˉ ; F m ] ; θ m ) ) , m ∈ { T 1 ,   T 1 c ,   T 2 ,   F l a i r } . ( 1 ) \mathbf{W}_{m}=\sigma\left(\mathcal{F}_{m}\left(\left[\bar{\mathbf{F}};\mathbf{F}_{m}\right];\theta_{m}\right)\right),\quad m\in\{\mathrm{T}1,\mathrm{~T}1\mathrm{c},\mathrm{~T}2,\mathrm{~Flair}\}.\quad(1) Wm=σ(Fm([Fˉ;Fm];θm)),m{T1, T1c, T2, Flair}.(1)这里, F m \mathcal{F}_{m} Fm是该特定模态 m m m的卷积层, θ m θ_m θm表示该层的参数, σ σ σ是Sigmoid函数。也就是说,我们为每种模态都有一个单独的卷积层 F m \mathcal{F}_{m} Fm 来生成不同的权重。由于可能缺少模态,我们将有不同数量的特征图进行融合。为了解决这个问题,我们使用 Softmax 函数对不同的注意力权重进行标准化: W ^ m = exp ⁡ ( W m ) ∑ m N m exp ⁡ ( W m ) . ( 2 ) \hat{\mathbf{W}}_m=\frac{\exp\left(\mathbf{W}_m\right)}{\sum_m^{N_m}\exp\left(\mathbf{W}_m\right)}.\quad(2) W^m=mNmexp(Wm)exp(Wm).(2)也就是说,我们只考虑这些可用模态的特征图,但将它们对最终融合结果的贡献标准化,这样,无论缺少多少模态,融合后的特征图都具有一致的值范围。然后,我们将注意力权重与相应的模态特征图进行体素相乘。因此,自适应融合的特征图 F ^ \hat{F} F^ 是通过每个模态特征的加权和来计算的: F ^ = ∑ m W ^ m ⊗ F m . ( 3 ) \hat{\mathbf{F}}=\sum_m\hat{\mathbf{W}}_m\otimes\mathbf{F}_m.\quad(3) F^=mW^mFm.(3)这里,⊗表示体素相乘。

损失函数

我们有多个分割头,分布在A2FSeg的每个模块中。对于每个分割头,我们使用交叉熵和软Dice分数的组合作为基本损失函数,其定义为 L ( y ^ , y ) = L C E ( y ^ , y ) + L D i c e ( y ^ , y ) , ( 4 ) \mathcal{L}(\hat{y},y)=\mathcal{L}_{CE}(\hat{y},y)+\mathcal{L}_{Dice}(\hat{y},y),\quad(4) L(y^,y)=LCE(y^,y)+LDice(y^,y),(4)其中 y ^ \hat{y} y^ y y y 分别表示分割预测和真实分割结果。基于这个基本函数,我们将整体损失函数定义为 L t o t a l = ∑ m L m ( y ^ m , y ) + L a v g ( y ^ a v g , y ) + L a d p ( y ^ a d p , y ) , ( 5 ) \mathcal{L}_{total}=\sum_m\mathcal{L}_m(\hat{y}_m,y)+\mathcal{L}_{avg}(\hat{y}_{avg},y)+\mathcal{L}_{adp}(\hat{y}_{adp},y),\quad(5) Ltotal=mLm(y^m,y)+Lavg(y^avg,y)+Ladp(y^adp,y),(5)其中第一项是特征提取后每个模态 m m m 的基本分割损失;第二项是平均融合模块的分割输出的损失;最后一项是自适应融合模块最终输出的分割损失。

实验

数据集:BraTS 2020
实验设置和实施细节:
Pytorch实现、使用RTX3090GPU进行实验、使用Adam优化器、learning rate = 0.01、使用学习率指数衰减方法: ( 1 − # epoch # m a x e p o c h ) 0.9 (1-\frac{\#\text{epoch}}{ \# \mathrm{max}\quad\mathrm{epoch}})^{0.9} (1#maxepoch#epoch)0.9、patch = 128 x 128 x 128、训练300轮
论文阅读笔记——A2FSeg:用于医学图像分割自适应多模态融合网络,医疗 + 多模态论文阅读笔记,论文阅读,笔记
Table 1:与最近的方法进行比较(包括HeMIS、U-HVED、mmFormer、MFI),与我们的模型在BraTS 2020上就Dice%方面进行比较,缺失模态用o表示,可用模态用●表示,F表示Flair,HVED表示U-HVED,mmFormer表示为Former文章来源地址https://www.toymoban.com/news/detail-839132.html

到了这里,关于论文阅读笔记——A2FSeg:用于医学图像分割自适应多模态融合网络的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • 【论文阅读】Swin Transformer Embedding UNet用于遥感图像语义分割

    Swin Transformer Embedding UNet for Remote Sensing Image Semantic Segmentation 全局上下文信息是遥感图像语义分割的关键 具有强大全局建模能力的Swin transformer 提出了一种新的RS图像语义分割框架ST-UNet型网络(UNet) 解决方案:将Swin transformer嵌入到经典的基于cnn的UNet中 ST-UNet由Swin变压器和CNN并联

    2024年02月08日
    浏览(61)
  • 图像生成论文阅读:GLIDE算法笔记

    标题:GLIDE: Towards Photorealistic Image Generation and Editing with Text-Guided Diffusion Models 会议:ICML2022 论文地址:https://proceedings.mlr.press/v162/nichol22a.html 官方代码:https://github.com/openai/glide-text2im 作者单位:OpenAI 扩散模型最近已被证明可以生成高质量的合成图像,特别是在与引导技术结合

    2024年02月02日
    浏览(47)
  • 自监督医学图像Models Genesis: Generic Autodidactic Models for 3D Medical Image Analysis论文精读笔记

    论文下载地址:Models Genesis: Generic Autodidactic Models for 3D Medical Image Analysis 代码地址:代码-Github

    2023年04月09日
    浏览(59)
  • EPT-Net:用于3D医学图像分割的边缘感知转换器

    IEEE TRANSACTIONS ON MEDICAL IMAGING, VOL. 42, NO. 11, NOVEMBER 2023 卷积运算的 内在局部性 在建模长程依赖性方面存在局限性。尽管为序列到序列全局预测而设计的Transformer就是为了解决这个问题而诞生的,但由于 底层细节特征 不足,它可能会导致定位能力有限。此外,低级特征具有丰富

    2024年02月04日
    浏览(44)
  • [CVPR2022] 用于 3D 医学图像分析的 Swin Transformers 的自监督预训练

    Self-Supervised Pre-Training of Swin Transformers for 3D Medical Image Analysis 摘要 Vision Transformer(ViT)在全局和局部表示的自监督学习方面表现出了出色的性能,这些表示它可以转移到下游任务的应用中。 提出模型:提出一种新的自监督学习框架Swin UNETR,它具有定制的代理任务,用于医学图像

    2024年02月15日
    浏览(43)
  • 万字长文解读图像超分辨率 Real-ESRGAN 论文笔记+代码阅读

    目录 一、介绍 二、重点创新 1.ESRGAN  2.Real-ESRGAN 三、生成器结构 1.整体结构 2.RRDB结构 四、判别器结构 五、高阶退化模型 六、损失函数 1.生成模型损失函数 2.判别模型损失函数         超分辨率(Super-Resolution)指通过硬件或软件的方法提高原有图像的分辨率,通过一系列低

    2024年02月14日
    浏览(39)
  • U-Net Transformer:用于医学图像分割的自我和交叉注意力模块

    对于复杂和低对比度的解剖结构,医学图像分割仍然特别具有挑战性。本文提出的一种U-Transformer网络,它将Transformer中的self-attention和Cross attention融合进了UNet,这样克服了UNet无法建模长程关系和空间依赖的缺点,从而提升对关键上下文的分割。本文集合了两种注意力机制:自

    2024年02月06日
    浏览(42)
  • 【图像修复】论文阅读笔记 ----- 《Image inpainting based on deep learning: A review》

    原文下载链接1:https://www.sciencedirect.com/science/article/abs/pii/S0141938221000391 原文下载链接2:http://s.dic.cool/S/KSS4D4LC 本篇论文综述发表于2021年。文章总结了基于深度学习的不同类型神经网络结构的修复方法,然后分析和研究了重要的技术改进机制;从模型网络结构和恢复方法等方

    2024年02月01日
    浏览(63)
  • 【YOLOv8改进】MCA:用于图像识别的深度卷积神经网络中的多维协作注意力 (论文笔记+引入代码)

    先前的大量研究表明,注意力机制在提高深度卷积神经网络(CNN)的性能方面具有巨大潜力。然而,大多数现有方法要么忽略通道和空间维度的建模注意力,要么引入更高的模型复杂性和更重的计算负担。为了缓解这种困境,在本文中,我们提出了一种轻量级且高效的多维协

    2024年03月18日
    浏览(83)
  • CVPR 2023 医学图像分割论文大盘点

    点击下方 卡片 ,关注“ CVer ”公众号 AI/CV重磅干货,第一时间送达 点击进入— 【医学图像分割】微信交流群 被催了很久,CVer 正式开启 CVPR 2023 论文大盘点系列 ! Amusi 一共搜集了13篇医学图像分割论文 ,这应该是目前各平台上 最新最全面的CVPR 2023 医学图像分割盘点资料

    2024年02月14日
    浏览(45)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包