论文阅读:Whole slide images classification model based on self-learning sampling

这篇具有很好参考价值的文章主要介绍了论文阅读:Whole slide images classification model based on self-learning sampling。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

论文介绍

这是一篇发表在BSPC(Biomedical Signal Processing and Control)上的关于WSI分类的文章, 作者是上海科技大学的学生/老师。
论文链接为:https://www.sciencedirect.com/science/article/pii/S1746809423012594
代码:暂未开源

摘要

深度学习与计算病理学的结合的增加放大了整个WSI在现代临床诊断中的应用。然而,整个WSI的直接加载经常受到内存限制的阻碍。传统的将WSI分割成图像补丁进行随机抽样策略引入了冗余病理信息,无法实现端到端训练。为了解决这个问题,我们引入了一个以自学习采样为中心的WSIS分类模型。首先,我们为病理图像引入了一个自学习采样模块,将选定的关键补丁嵌入到Transformer编码器中,得到补丁之间的相关性信息,可以实现整个网络的端到端训练。我们还实现了一个组合的焦点和采样损失函数来解决病理图像样本的不平衡分布和采样冗余。在TCGA-LUSC数据集和协作医院结肠癌数据集上测试,证明了我们的模型能够与先进的TransMIL方法的准确性和AUC相媲美。值得注意的是,与 TransMIL 相比,我们的模型减少了 WSI 推理时间,从而在各自的数据集上提高了 15.1% 和 22.4%。

引言

文章在引言部分介绍如下:

  • 介绍了一下WSI的重要性(金标准)以及使用计算机来辅助分类的原因。
  • 指出因为WSI的分辨率通常比较大而导致不能使用例如GooleNet以及DenseNet等模型进行端到端训练的问题。针对这个问题,现有的一些研究,如DSMIL等关于WSI分类的方法是将整个WSI切分成不重叠,大小相等的子图片(patch)来进行处理。但是这种方法有一些问题在里面:
    • 第一, 由于现有的计算和存储能力有限,不可能会对所有的patch来进行网络训练,从而实现WSI分类。
    • 第二,不是每一个patch都可以提供有效的信息。例如, WSI中的脂肪组织区域的patch。
      针对上面的两个问题,对patch进行下采样处理是一种有效的手段。因此,如何对WSI进行下采样处理以尽可能地保留有意义的内容是非常有意义的。但这个领域至今还很少人关注。
  • 针对上面提出的对WSI进行下采样处理进行论述。指出直接下采样会丢失重要信息,而现有的方法都是先将WSI进行切块处理(也就是切成256×256大小的图片),再对这些子图片进行下采样处理。当前下采样处理的技术主要有随机采样以及聚类采样。但是这些采样方法需要尽可能多的patch来表示整个WSI的特征。且它们不可微,也就是说它们不能使用深度学习来处理。针对这个情况,引出了点云下采样,并介绍了一些点云下采样的方法。最终引出自己的目的:使用可微的自学习采样方法代替不可微的采样方法,通过少量的关键patch来平衡分类任务的性能以及计算效率,确保任务性能的同时减少资源的消耗。随机采样与自学习采样的比较如下表1.
    论文阅读:Whole slide images classification model based on self-learning sampling,WSI分类论文阅读,论文阅读,论文笔记
  • 本文的贡献如下:
    • 提出了一种新的基于自学习采样的WSI分类模型,使网络可以实现端到端训练,解决了当前WSI下采样研究方法中不可微的问题。
    • 在框架中构建了一个自学习采样模块,实现了网络的反向传播。
    • 制定了一个综合损失函数,由focal损失以及采样损失组成。解决病例图像中样本比例不平衡和采样冗余的挑战
    • 方法在所比较的数据集上具有优势。

相关工作

首先介绍了组织病理图像分类的相关工作。在这一部分中,先大致介绍了全监督的组织病理图像分类,并指出它需要标注好数据,且这种详细的标注会给病理专家带来负担。针对这个问题,进一步介绍了基于MIL的WSI分类方法,如ABMIL, TransMIL等。其次,介绍了组织病理学采样的方法。

方法

问题定义

想预测每张WSI属于哪一个类别,正常的为0,否则为1。介绍了采样方法,先裁剪成同样大小的不重叠的patch,然后每个WSI都进行随机采样,从而得到一个等长的patch集合P。采样后的子集大小为k( k ≤ n k \le n kn, n为P的大小)。随后用一个分类任务网络T来对这些patch进行分类,找到最小的k个patch组合成的子集,使得总损失 L t o t a l L_{total} Ltotal最小。如此,问题就转变成了一个最优化问题。

模型结构

论文阅读:Whole slide images classification model based on self-learning sampling,WSI分类论文阅读,论文阅读,论文笔记
整体模型结构如图所示,整体模型包括特征提取模块、自学习采样模块以及基于Transformer的特征编码和分类模块三个模块。在特征提取之后,将特征集 F l o c a l F_{local} Flocal输入到自学习采样模块,并得到一个采样矩阵S,将其与 F l o c a l F_{local} Flocal相乘之后得到一个集合R,这个R包含了k个patch。随后将这个R集合和分类标签输入到Transformer中去获取patch之间的空间联系,并最终由全连接层进行分类。
同时,从图中可以看到整个网络框架由两个损失,其中 L s a m p l i n g L_{sampling} Lsampling是让采样的patch与子集P相似,而 L c l a s s i f i c a t i o n L_{classification} Lclassification则是让分类性能越高越好的一个损失。

特征提取

这一部分与之前的方法一样,首先先对WSI进行缩略图检测,从而得到具有组织病理的部分并对这部分进行裁剪。之后,对得到的patch使用resnet进行特征提取。裁剪的方法为:1.使用颜色阈值移除非组织区域,并以此得到一个二进制掩码,对于组织部分,值为1,否则为0。第二,对二进制掩码进行划分,使用最小阈值方法过滤掉部分patch。文中设置的阈值为50%,即每个patch中组织部分面积与背景的比例大于50%,则认为其有效,否则无效。

自学习采样模块

首先指出当前WSI采样方法存在的问题:不可微。这个问题会导致下游分类任务无法生成与任务相关的关键patch。并根据这个说明引出自学习采样方法(受LSNet的启发),流程图如下:
论文阅读:Whole slide images classification model based on self-learning sampling,WSI分类论文阅读,论文阅读,论文笔记
图中, F l o c a l F_{local} Flocal是输入,也就是经过resnet得到的特征表达,而 F g l o b a l F_{global} Fglobal则是对 F l o c a l F_{local} Flocal进行最大池化操作之后得到的特征,随后将全局特征和局部特征进行拼接,对拼接之后的特征送入到两层全连接层的MIL网络层和Sigmoid激活函数之中,得到 S ˉ \bar{S} Sˉ,之后,在利用带有 τ \tau τ的softmax函数得到sampling matrix,文中 τ \tau τ设置为0.001。

最后,使用公式证明输入图像的顺序对结果是没有影响的。

基于Transformer的特征编码

这一部分其实就是讲述了一下TransMIL的网络组成

损失函数

L c l a s s i f i c a t i o n L_{classification} Lclassification为focal loss:
论文阅读:Whole slide images classification model based on self-learning sampling,WSI分类论文阅读,论文阅读,论文笔记
L s a m p l i n g L_{sampling} Lsampling是为了调节采样效率,尽可能保留更多的特征表达。其公式为:
论文阅读:Whole slide images classification model based on self-learning sampling,WSI分类论文阅读,论文阅读,论文笔记
因此整个损失函数的计算为,其中 β \beta β为自定义系数,用于调节两个损失函数,保持平衡:
论文阅读:Whole slide images classification model based on self-learning sampling,WSI分类论文阅读,论文阅读,论文笔记

实验分析和结论

使用的数据集:TCGA-LUSC数据集以及私有数据集。
实验细节:对LUSC裁剪成256×256, 自己的数据集裁剪成512×512。但最终都会被resize成256×256的大小,送到网络中。数据划分是65:10:25的比例划分,采用5次测试的平均结果当做最终结果。
使用的指标:AUC Acc
其他细节: SCD优化,学习率为0.001,batchsize为1。focal loss中 α \alpha α以及 γ \gamma γ分别设置为0.25和2。总共有200次迭代,使用不同的种子进行5次实验,但数据集的划分不变。

实验结果如下:
论文阅读:Whole slide images classification model based on self-learning sampling,WSI分类论文阅读,论文阅读,论文笔记
论文阅读:Whole slide images classification model based on self-learning sampling,WSI分类论文阅读,论文阅读,论文笔记

总结

这篇文章引入了点云采样技术来对实例特征进行采样,从而提高了对WSI分类的效率。从实验结果上来看,在更少的采样次数以及更少的时间里,得到的结果与当前最好的结果相似。算是一个不错的引入。
但有几个问题。第一,只显示了在20次的时候结果差不多,但是往后,结果会不会提高,会提高多少,文中没有展示,而从结果上来看,总的结果和TransMIL差不多,20次时,结果比TransMIL低一些,速度比TransMIL快,且采样次数更少,但没有更有利的证据说服。第二,文中的可视化结果只是比较了随机采样和作者提出的自学习采样,但并没有给出自己的框架的最终可视化结果和其他方法的对比。第三,文中对比的方法比较少,最新的是TransMIL,而本文发表的时间是在2023年,这之中还有着其他的方法可以得到更好的结果,这篇文章没有对比。

更多关于多实例WSI分类的文章阅读,请关注公众号:
论文阅读:Whole slide images classification model based on self-learning sampling,WSI分类论文阅读,论文阅读,论文笔记文章来源地址https://www.toymoban.com/news/detail-787867.html

到了这里,关于论文阅读:Whole slide images classification model based on self-learning sampling的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • 论文阅读《Efficient and Explicit Modelling of Image Hierarchies for Image Restoration》

    论文地址:https://openaccess.thecvf.com/content/CVPR2023/papers/Li_Efficient_and_Explicit_Modelling_of_Image_Hierarchies_for_Image_Restoration_CVPR_2023_paper.pdf 源码地址:https://github.com/ofsoundof/GRL-Image-Restoration   图像复原任务旨在从低分辨率的图像(模糊,子采样,噪声污染,JPEG压缩)中恢复高质量的图

    2024年02月03日
    浏览(53)
  • 【图像修复】论文阅读笔记 ----- 《Image inpainting based on deep learning: A review》

    原文下载链接1:https://www.sciencedirect.com/science/article/abs/pii/S0141938221000391 原文下载链接2:http://s.dic.cool/S/KSS4D4LC 本篇论文综述发表于2021年。文章总结了基于深度学习的不同类型神经网络结构的修复方法,然后分析和研究了重要的技术改进机制;从模型网络结构和恢复方法等方

    2024年02月01日
    浏览(60)
  • 自监督论文阅读笔记 RingMo: A Remote Sensing Foundation Model with Masked Image Modeling

            深度学习方法促进了遥感 (RS) 图像解释的快速发展。最广泛使用的训练范式是利用 ImageNet 预训练模型来处理指定任务的 RS 数据。然而,存在  自然场景与RS场景之间的领域差距 ,以及 RS模型泛化能力差 等问题。开发 具有通用 RS 特征表示的基础模型 是有意义的。

    2024年02月16日
    浏览(49)
  • 【论文阅读】SynDiff Unsupervised Medical Image Translation with Adversarial Diffusion Models

    Unsupervised Medical Image Translation with Adversarial Diffusion Models 论文大致翻译和主要内容讲解 通过源-目标通道转换对缺失图像进行填充可以提高医学成像协议的多样性。合成目标图像的普遍方法包括通过生成性对抗网络(GAN)的一次映射。然而,隐含地描述图像分布的Gan模型可能会受

    2024年04月17日
    浏览(35)
  • 论文阅读--High-Resolution Image Synthesis with Latent Diffusion Models

    High-Resolution Image Synthesis with Latent Diffusion Models论文阅读 Abstract Introduction Diffusion model相比GAN可以取得更好的图片生成效果,然而该模型是一种自回归模型,需要反复迭代计算,因此训练和推理代价都很高。论文提出一种在潜在表示空间(latent space)上进行diffusion过程的方法,

    2024年01月17日
    浏览(60)
  • 【论文阅读】Directional Connectivity-based Segmentation of Medical Images(可以跑通代码)

    论文:Directional Connectivity-based Segmentation of Medical Images 代码:https://github.com/zyun-y/dconnnet 出发点 :生物标志分割中的解剖学一致性对许多医学图像分析任务至关重要。 之前工作的问题 :以往的连通性工作忽略了潜在空间中丰富的信道方向的信息。 证明 :有效地将方向子空间

    2024年02月04日
    浏览(42)
  • 图像融合论文阅读:IFCNN: A general image fusion framework based on convolutional neural network

    @article{zhang2020ifcnn, title={IFCNN: A general image fusion framework based on convolutional neural network}, author={Zhang, Yu and Liu, Yu and Sun, Peng and Yan, Han and Zhao, Xiaolin and Zhang, Li}, journal={Information Fusion}, volume={54}, pages={99–118}, year={2020}, publisher={Elsevier} } 论文级别:SCI A1 影响因子:18.6 📖 该论文是【

    2024年02月03日
    浏览(45)
  • 论文阅读:SDXL Improving Latent Diffusion Models for High-Resolution Image Synthesis

    论文链接 代码链接 背景:Stable Diffusion在合成高分辨率图片方面表现出色,但是仍然需要提高 本文提出了SD XL,使用了更大的UNet网络,以及增加了一个Refinement Model,以进一步提高图片质量。 用户偏好调查比较 可以看到,在不增加Refiner模型的情况下,SD XL的效果已经比SD 1.

    2024年03月11日
    浏览(82)
  • 【论文阅读笔记】Sam3d: Segment anything model in volumetric medical images[

    Bui N T, Hoang D H, Tran M T, et al. Sam3d: Segment anything model in volumetric medical images[J]. arXiv preprint arXiv:2309.03493, 2023.【开源】 本文提出的SAM3D模型是针对三维体积医学图像分割的一种新方法。其核心在于将“分割任何事物”(SAM)模型的预训练编码器与一个轻量级的3D解码器相结合。与

    2024年01月20日
    浏览(43)
  • 【论文阅读系列】NWD-Based Model | 小目标检测新范式,抛弃IoU-Based暴力涨点(登顶SOTA) 计算机视觉

    计算机视觉 参考:博客1 知乎2 在这里进行纪录分享,这是有用的资料,避免之后再寻找相当麻烦。 小目标检测是一个非常具有挑战性的问题,因为小目标只包含几个像素大小。作者证明,由于缺乏外观信息,最先进的检测器也不能在小目标上得到令人满意的结果。作者的主

    2024年02月05日
    浏览(55)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包