【论文笔记】用于H&E和IHC染色切片分析的基础模型

这篇具有很好参考价值的文章主要介绍了【论文笔记】用于H&E和IHC染色切片分析的基础模型。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

论文基本信息

论文题目:PathoDuet: Foundation Models for Pathological Slide Analysis of H&E and IHC Stains

作者信息:上海交大、上海AI实验室

论文链接:https://arxiv.org/abs/2312.09894

研究动机

背景

  • 组织学评估是诊断癌症的金标准
  • 病理学家主要根据HE分析,还利用IHC进一步提高诊断结果
  • 尽管数据量巨大,但是由于缺乏标注,将深度学习技术整合到诊断流程中的进展相对缓慢
  • 为了应对这一挑战,基础模型(foundation model)应运而生,这些模型通常利用未标记数据的潜力,促进向下游任务的迁移,减少对标记数据的依赖
  • 现有的基础模型主要依赖于自监督学习(SSL)方法
  • 对比学习(CL)是SSL的一个主要分支
  • CL侧重利用图像的相似性来辨别和分类与其他图像相关的图像。由于许多病理任务与识别高度相关,因此CL适合用于病理基础模型

提出问题/假说

关键问题/假说A

  • CL任务大多数图像具有语义独特性(semantic uniqueness)
  • 病理图像大多由WSI切分成patch以满足模型的输入尺寸要求,但是这样会导致相邻patch的语义独特性被限制。
  • 独立的patch会导致语义空间的过度碎片化(over-fragmentation),从而影响模型的性能。
  • 病理学家习惯在检查过程中不断的放大和缩小观察病理图像。

关键问题/假说B

  • 病理学家还经常利用其他切片进行更全面的诊断。
  • IHC经常被采用以为癌症的亚型分类提供更宝贵的见解。
  • HE切片可作为基本参考,提供重要的信息和结构细节,补充从IHC切片中获得的特定分子信息。
  • 理想的IHC染色基础模型能根据标记物表达水平评估IHC图像,并在组织结构方面与HE模型的语义空间保持一致。

解决问题/假说

针对问题/假说A的核心技术

  • 为了模拟病理学家观察病理图像的过程。提出了“跨尺度定位”(cross-scale positioning)的前置任务。
  • 在CL中常用的不同增强图像试图的两个分支外,还增加了一个分支,从邻近区域学习patch的表示。

针对问题/假说B的核心技术

  • 利用训练好的HE模型,引入“跨染色迁移”(cross-stain transferring)的前置任务,加深对不同染色方式病理图像的理解。

技术路线

提出了称为PathoDuet的框架,它为开发基础模型提供了两种不同的策略:

  1. 利用尺度的切换来发现更广阔的语义空间(从周围区域进一步理解patch)
  2. 在其他密切相关且已被利用的模式基础上取得进步(从HE模型中学习IHC图像的表示)

整体技术概览

【论文笔记】用于H&E和IHC染色切片分析的基础模型,论文笔记,论文阅读

Pretext token empowered SSL framework

  • 动机:为了模仿病理学家,需要一个额外的输入来携带来自不同尺度或染色的信息
  • 提出了一个pretext token机制,揭示同一个编码器内部的关系,从而加深病理学家对病理图像的理解
  • 该机制创建了一个pretext token,与patch的embedding一起送入到ViT中。这个token是输入对之间的关联。

Cross-scale positioning

病理学家喜欢不断缩放观察切片:先从全局视角中找到可疑区域,然后放大查看;然后再缩放到全局视角检查下一个可疑区域。
病理学家在低倍镜下获得全局的粗略的理解,然后在高倍镜下获得局部的仔细的理解。
受此启发,作者提出了“跨尺度定位”任务,应用于自监督学习。
在该任务中,CL框架桥接局部试图和全局试图的patch。

【论文笔记】用于H&E和IHC染色切片分析的基础模型,论文笔记,论文阅读

整个框架由三个分支组成:

  • Region Network
  • Online Patch Network
  • Target Patch Network

从局部视角来看:
Online和Target分支构成对比学习,对比两个不同增强的patch
Online和Target在这里遵循MoCov3的结构,获得局部损失

【论文笔记】用于H&E和IHC染色切片分析的基础模型,论文笔记,论文阅读

从全局视角来看:

Region和Online分支构成了跨尺度定位任务
相比于其他两个分支的可学习的token,Region分支的token是local patch的embedding
Positioner给每个输入patch embedding分配权重
权重会与Encoder的特征相乘

为了将局部和全局视角联系起来,引入了SimSiam’s two-way loss

【论文笔记】用于H&E和IHC染色切片分析的基础模型,论文笔记,论文阅读

其中

 【论文笔记】用于H&E和IHC染色切片分析的基础模型,论文笔记,论文阅读

 Cross-stain transferring

病理学家不止检查HE图像,还需要如IHC切片等,以获得更多的信息
受此启发,作者提出了“跨染色迁移”任务。
考虑到配对数据的稀缺性,该任务旨在作为一种从现有H&E基础模型到IHC基础模型的迁移方法,而不是预训练方法。
在该任务中,CL框架桥接真实的IHC patch和相应的H&E patch迁移的伪IHE patch。
作者参照(adaptive instance normalization, AdaIN)的方法设计了一个迁移器,将H&E染色的特征的均值和方差调整为IHC的均值和方差。

【论文笔记】用于H&E和IHC染色切片分析的基础模型,论文笔记,论文阅读

整个框架由两个分支组成:

  • IHC Network
  • H&E Network

真实IHC特征:

  • IHC Network由训练好的H&E模型初始化,输出结果被认为能够表达IHC

伪IHC特征:

  • H&E模型被冻结以提供稳定的H&E表达
  • H&E Network输入HE图像和IHCpatch,然后将HE的输出特征分布迁移成IHC对应的特征分布:
  • 【论文笔记】用于H&E和IHC染色切片分析的基础模型,论文笔记,论文阅读

桥接特征使用对比学习损失:

【论文笔记】用于H&E和IHC染色切片分析的基础模型,论文笔记,论文阅读

实验

预训练阶段

  • 预训练阶段包括预训练H&E模型和IHC模型迁移两个阶段
    • 第一阶段:跨尺度定位
    • 第二阶段:跨染色迁移
  • 数据集:
    • H&E数据集:
      • 来源:TCGA
      • 尺寸:256×256(最高倍镜)/1024×1024(较高倍镜) 
        • 放大倍率相差8倍
      • 1,623,258个大patch和13,166,437个小patch
    • 跨染色数据集:
      • 来源:HyReCo(CD8, CD45, and Ki67)、BCI(HER2)
      • 来自HyReCo中的2771个配对的H&E和一种IHC图像对和来自BCI中的3896个配对的图像对。并使用剪裁和缩放增加数据量。
  • 对比的模型:
    • 使用ImageNet的基线:
      • ImageSup:全监督ViT
      • ImageSSL:自监督ViT
    • 病理数据训练的模型:
      • SimCLR-ciga:使用SimCLR在病理数据训练的ResNet-18
      • RetCCL:预训练的ResNet-50
      • CTransPath:CNN和Swin Transformer的混合结构
  • 设置:
    • Backbone:ViT-B/16
  • 训练流程
    1. 首先使用普通的对比学习训练100轮
    2. 然后开始跨尺度定位任务20,训练20轮,得到H&E模型
    3. 训练好的H&E模型再用于跨染色迁移任务,训练100轮,得到IHC模型

H&E下游任务 

Patch水平的组织分类

  • PathoDuet训练好的模型用作特征提取器,后面接一个分类层
  • 实验的两个策略:
    • 线性验证策略:只有新加的分类层被更新,其他的层都固定住
    • 全微调策略:所有层都更新
  • 评价指标:Acc和F1分数
  • 数据集:NCT-CRC-HE
    • 结直肠癌,9种组织类别划分

【论文笔记】用于H&E和IHC染色切片分析的基础模型,论文笔记,论文阅读【论文笔记】用于H&E和IHC染色切片分析的基础模型,论文笔记,论文阅读

WSI水平的分类

  • 用了多实例学习的方法:
    • 使用预训练的冻结参数的H&E模型提取WSI切分patch的特征
    • 使用attention-based CLAM框架作为多实例学习流程预测WSI
  • 评价指标:Acc和AUC
  • 数据集:
    • CAMELYON16
    • TCGA non-small cell lung cancer (NSCLC)
    • TCGA renal cell carcinoma (RCC)

【论文笔记】用于H&E和IHC染色切片分析的基础模型,论文笔记,论文阅读

IHC下游任务

IHC表达水平评估

  • 评价指标:
    • Acc、balanced accuracy (bAcc) 和 weighted F1 (wF1)
  • 数据集:
    • 内部数据集:PD-L1 标记的 IHC patches
    • 自己设定了阈值,将PD-L1分成无表达、轻微表达、一般表达和高表达
    • 四五千张patch

【论文笔记】用于H&E和IHC染色切片分析的基础模型,论文笔记,论文阅读

Cross-site肿瘤识别

  • 评价指标:Acc和F1分数
  • 数据集:
    • 内部数据集,patch分成正(有肿瘤细胞)和负(没肿瘤细胞)两类
    • 数据来自两个医疗机构(site):
      • 第一个site:包括ER,KI67和PR,分类两个set
      • 第二个site:包括ER,KI67和EGFR
  • 四种实验场景
    • Set L -> Set S / Set S-> Set T 同一个Site的实验
    • Site 1→ Site 2 跨Site的实验

【论文笔记】用于H&E和IHC染色切片分析的基础模型,论文笔记,论文阅读

消融实验

 【论文笔记】用于H&E和IHC染色切片分析的基础模型,论文笔记,论文阅读

 【论文笔记】用于H&E和IHC染色切片分析的基础模型,论文笔记,论文阅读

 文章来源地址https://www.toymoban.com/news/detail-787964.html

到了这里,关于【论文笔记】用于H&E和IHC染色切片分析的基础模型的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • ImageJ | 免疫组织化学(IHC)图像分析工具箱 | 下载地址 | 安装教程 | 使用教程

    安装IHC 工具箱,需要安装ImageJ 1.40或更高版本。你可以使用小编提供的最新版本的ImageJ。(截至发文前) :::block-1 ImageJ 软件下载 ImageJ for Windows 链接:https://pan.baidu.com/s/1v9pXegaU8Lps0CaT3ZYx2A?pwd=yp23 提取码:yp23 ImageJ for MacOS(Intel) 链接:https://pan.baidu.com/s/1LyBa-fWtfTVLo7OWTF84HA?pwd

    2024年01月17日
    浏览(49)
  • 《论文阅读》用于情感分析的融合预训练表情符号特征增强

    前言 你是否也对于理解论文存在困惑? 你是否也像我之前搜索论文解读,得到只是中文翻译的解读后感到失望? 小白如何从零读懂论文?和我一起来探索吧! 今天为大家带来的是《Fusion Pre-trained Emoji Feature Enhancement for Sentiment Analysis》 出版:2023 Association for Computing Machiner

    2024年02月09日
    浏览(41)
  • 【论文阅读笔记】4篇Disentangled representation learning用于图像分割的论文

    4篇应用解耦表示学习的文章,这里只关注如何解耦,更多细节不关注,简单记录一下。 Chen C, Dou Q, Jin Y, et al. Robust multimodal brain tumor segmentation via feature disentanglement and gated fusion[C]//Medical Image Computing and Computer Assisted Intervention–MICCAI 2019: 22nd International Conference, Shenzhen, China, O

    2024年01月17日
    浏览(33)
  • 数据分析基础-数据可视化学习笔记05-交互模型

    理解交互中的人类认知行为 •人类信息处理模型 •生态模型 •社交互动模型 •在认知心理学中——人类被视为一个信息处理单元 •认知过程被建模为该 IP 单元上的一系列信息过程 •了解人类认知过程,例如推理、解决问题、记忆和学习 •SK Card、TP Moran 和 A. Newell:人机交

    2024年02月11日
    浏览(26)
  • Segment Anything论文翻译,SAM模型,SAM论文,SAM论文翻译;一个用于图像分割的新任务、模型和数据集;SA-1B数据集

    论文链接: https://arxiv.org/pdf/2304.02643.pdf https://ai.facebook.com/research/publications/segment-anything/ 代码连接:https://github.com/facebookresearch/segment-anything 论文翻译: http://t.csdn.cn/nnqs8 https://blog.csdn.net/leiduifan6944/article/details/130080159 本文提出Segment Anything (SA)项目:一个用于图像分割的新任务

    2023年04月19日
    浏览(34)
  • 【Transformer论文】CMKD:用于音频分类的基于 CNN/Transformer 的跨模型知识蒸馏

    文献题目:CMKD: CNN/Transformer-Based Cross-Model Knowledge Distillation for Audio Classification 文献时间:2022 音频分类是一个活跃的研究领域,具有广泛的应用。 在过去十年中,卷积神经网络 (CNN) 已成为端到端音频分类模型的事实上的标准构建块。 最近,仅基于自注意力机制(如音频频谱

    2023年04月17日
    浏览(26)
  • 论文阅读笔记——A2FSeg:用于医学图像分割自适应多模态融合网络

    论文地址: https://www.semanticscholar.org/paper/A2FSeg%3A-Adaptive-Multi-modal-Fusion-Network-for-Wang-Hong/330f94e291a9b881ad14ca500f8d96e185d43b15 代码仓库: https://github.com/Zirui0623/A2FSeg/tree/main?tab=readme-ov-file 磁共振成像(MRI)在多模式脑肿瘤分割中发挥着重要作用。然而,缺失模态在临床诊断中非常常

    2024年03月13日
    浏览(47)
  • 读论文--Token Merging for Fast Stable Diffusion(用于快速Diffusion模型的tome技术)

    摘要 The landscape of image generation has been forever changed by open vocabulary diffusion models. However, at their core these models use transformers, which makes generation slow. Better implementations to increase the throughput of these transformers have emerged, but they still evaluate the entire model. In this paper, we instead speed up diffusion m

    2024年02月09日
    浏览(27)
  • 《一种改进的YOLOv5用于无人机捕获场景中的目标检测》论文笔记

           无人机图像处理中的目标检测逐渐成为近年来的研究热点。一般目标检测算法在应用于无人机场景时往往会显著下降。这是因为无人机图像是从高空拍摄的,分辨率高,小物体比例很大。为了在满足轻量化特性的同时提高无人机目标检测的精度,我们对YOLOv5s模型进行

    2024年02月02日
    浏览(33)
  • 【YOLOv8改进】MCA:用于图像识别的深度卷积神经网络中的多维协作注意力 (论文笔记+引入代码)

    先前的大量研究表明,注意力机制在提高深度卷积神经网络(CNN)的性能方面具有巨大潜力。然而,大多数现有方法要么忽略通道和空间维度的建模注意力,要么引入更高的模型复杂性和更重的计算负担。为了缓解这种困境,在本文中,我们提出了一种轻量级且高效的多维协

    2024年03月18日
    浏览(55)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包