多示例学习 (multi-instance learning, MIL) 学习路线 (归类、重点文章列举、持续更新)

这篇具有很好参考价值的文章主要介绍了多示例学习 (multi-instance learning, MIL) 学习路线 (归类、重点文章列举、持续更新)。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

0 要点

说明:本文在于能够让大家能够更加快速地了解MIL这个领域,因此将从以下几个方面重点介绍MIL (这里不详细介绍每一篇文章,只做概述)。

注1:欢迎和我进一步交流,可以加入我建立的QQ群 (2024年1月15日建立,没啥人hhh);
注2:如果给出的文章包含代码,可以点击其名称缩写获取;
注3:承2,如果包含博客讲解,可以点击其全称获取;
多示例学习 (multi-instance learning, MIL) 学习路线 (归类、重点文章列举、持续更新),# 深度学习,# 机器学习,MIL,多示例,学习路线

1 多示例背景介绍

概述:多示例学习 (MIL) 是一种典型的弱监督学习,其输入的单个样本被称为 (bag),包中包含多个实例 (instance)。在训练阶段,通常只有包的标签可知,而实例的标签不可知或者获取成本极高。因此,概括性的,MIL与传统机器学习的主要区别在于:

  1. 弱监督场景:实例的数量巨大却没有标签,仅通过包标签来预测未知类,甚至预测实例标签是极具挑战性的;
  2. 数据结构:包是多个实例的集合,实例可以是向量、图像、视频等任意结构,因此传统机器学习可以看作是MIL的一种特殊情况;

纵观MIL发展历程,其可以分为几个阶段:

  1. 早期:从Dietterich团队的药物活性预测研究开始,尝试直接使用传统的机器学习方法解决MIL问题;
  2. 发展:尝试MIL问题的转换,通常使用嵌入函数或包相似性度量来将其简化为传统的机器学习问题;
  3. 深度:利用深度学习的强大特征提取及表征能力,直接预测包的标签,这也是目前MIL研究的重点;
  4. 应用:考虑更多背景信息,如视频的时序、医疗图像相邻区块的关联性,以更好地处理实际任务;

2 理论MIL概述

之所以优先介绍传统MIL方法,究其原因为:

  1. 传统MIL方法包含众多实用策略,其思想内核至今仍被前沿的深度MIL方法使用;
  2. 传统方法均可被深度MIL直接或间接复刻,通过对齐首要了解,可以为后续深度MIL方法学习打下基础;

2.1 传统MIL方法

传统MIL方法大致分为三种:

  1. 实例方法:首先预测实例标签,并通过MIL假设计算包标签;
  2. 包方法:设计类似于高斯核的MIL包距离度量,使得 k k kNN和SVM等基于距离矩阵的方法得以施展;
  3. 嵌入方法:将包转换为向量,使得传统机器学习策略生效,这也是目前MIL表征学习的基础;

当然,立足于深度MIL方法的小伙伴只需大致了解这类方法。以下是对一些经典方法的归类:

方法名 团队 期刊/会议 全称 思想 领域
MINTL 广东工业大学 TNNLS’24 Multi-instance nonparallel tube learning 基于优化理论的类边界信息学习,以提升模型性能 理论
ISK 周志华 KDD‘19 Isolation set-kernel and its application to multi-instance learning 基于孤立核设置集合核和嵌入函数 理论
MILDM 悉尼科技大学 TKDE’18 Multi-instance Learning with discriminative bag mapping 利用辨别性优化嵌入结果 理论
miVLAD 周志华 TNNLS’16 Scalable algorithms for multi-instance learning 基于 k k kMeans聚类的高效MIL算法 理论
miFV 周志华 ICDM’14 Scalable multi-instance learning 混合高斯模型及Fisher核编码包为向量 理论
BAMIL 周志华 Applied Intelligence’09 Multi-instance clustering with applications to multi-instance prediction 利用包距离度量和 k k kMeans聚类获取包嵌入向量 理论

2.2 注意力网络

注意力机制的引入是深度MIL发展史上的一次伟大变革,其以Ilse等人发表的ABMIL和GAMIL为伊始,并深刻影响着后续MIL算法的发展。后续的基于对比学习、介入学习等策略的MIL大都围绕其展开,只是方法的侧重有所不同:

方法名 团队 期刊/会议 全称 思想 领域
IBMIL 上海交通大学 CVPR’23 Interventional bag multi-instance learning on whole-slide pathological images 基于训练模型和 k k kMeans的全局特征提取 WSI
MHIM-MIL 香港科技大学 CVPR’23 Multiple instance learning framework with masked hard instance mining 基于蒙版硬实例和软实例的孪生网络 WSI
ItS2CLR 纽约大学 CVPR’23 Multiple instance learning via iterative self-paced supervised contrastive learning 实例伪标签提升表示学习质量,并通过自步采用策略优化 WSI
CHEESE 大连理工大学 IEEE TCDS’23 Multiple instance learning for cheating detection and localization in online examinations 综合被检测人员的眼睛注视、头部姿势和面部特征等信息来学习模型 VAD
LNPL-MIL 清华大学 ICCV’23 LNPL-MIL: Learning from noisy pseudo labels for promoting multiple instance learning in whole slide image 提出了一种更准确的Top- k k k实例选择策略,并设计了一个能够感知实例顺序和分布的Transformer WSI
CausalMIL 东南大学 NeurIPS’22 Multi-instance causal representation learning for instance label prediction and out-of-distribution generalization 获得实例级因果表示并考虑OOD问题 理论
ZoomMIL IBM 欧洲研究院 ECCV’22 Differentiable zooming for multiple instance learning on whole-slide images 多尺度WSI同时输入 WSI
DSMIL 威斯康星大学 CVPR’21 Dual-stream multiple instance learning network for whole slide image classification with self-supervised contrastive learning 双流架构及自监督对比学习 WSI
TransMIL 清华大学 NeurIPS‘21 TransMIL: Transformer based correlated multiple instance learning for whole slide image classification 基于Transformer的相关型MIL框架 WSI
LAMIL 佛罗里达大学 AAAI’20 Loss-based attention for deep multiple instance learning 额外添加实例损失优化模型且提供理论证明 理论
ABMIL&GAMIL 阿姆斯特丹大学 ICML’18 Attention-based deep multiple instance learning 设计了两种注意力机制来捕捉包中的关键实例 理论

2.3 对比学习

方法名 团队 期刊/会议 全称 思想 领域
ItS2CLR 纽约大学 CVPR’23 Multiple instance learning via iterative self-paced supervised contrastive learning 实例伪标签提升表示学习质量,并通过自步采用策略优化 WSI
SMILES 东北大学 AAAI’23 Robust self-supervised multi-instance learning with structure awareness 引入无监督对比学习来获取包表示 理论

2.4 介入学习

方法名 团队 期刊/会议 全称 思想 领域
IBMIL 上海交通大学 CVPR’23 Interventional bag multi-instance learning on whole-slide pathological images 基于训练模型和 k k kMeans的全局特征提取 WSI

2.5 强化学习

2.6 GAN

3 MIL交叉领域

3.1 多示例偏标签

3.2 多示例多标签

3.3 多示例正和无标签学习

正和无标签学习 (PU) 的训练集中只包含正样本和无标记样本,对应的问题有叶片上的异常结冰检测、诈骗邮件检测等。

方法名 团队 期刊/会议 全称 思想 领域
PU-MIL-AD 鲁汶大学 KDD’23 Learning from positive and unlabeled multi-instance bags in anomaly detection 在MIL中首次引入PU学习的概念,并基于VAE进行异常检测 Anomaly Detection

3.4 多示例对抗攻击及防御

考虑MIL的弱监督设置,通过添加对抗扰动的方式愚弄MIL分类器,以解释模型的脆弱性和安全性。此外,对抗防御则用于降低MIL攻击者的效能。文章来源地址https://www.toymoban.com/news/detail-800212.html

方法名 团队 期刊/会议 全称 思想 领域
CAF-GAN 韩国航空航天大学 IEEE TIFS’23 A robust open-set multi-instance learning for defending adversarial attacks in digital image 基于GAN的对抗防御及数字取证研究 Anti-forensic
MI-CAP&MI-UAP 西南交通大学 PR’23 Interpreting vulnerabilities of multi-instance learning to adversarial perturbations 首次在MIL中引入对抗攻击,以解释算法的脆弱性,后续可作为数据增强策略等 理论

3.5 多示例分布外检测

3.6 多模态多示例

4 应用MIL概述

4.1 全幻灯片分类

4.2 视频异常检测

4.3 图像分类

4.4 调制识别

4.5 Benchmark

到了这里,关于多示例学习 (multi-instance learning, MIL) 学习路线 (归类、重点文章列举、持续更新)的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • Multi-View Learning(多视图学习/多视角学习 )是什么? Co-training(协同训练)和它的关系

    一句话解释什么是Multi-View Learning: 从多个视角进行学习,可以让模型从多方面更好的理解事物,从而提升模型的性能 多个视角的来源: (1) 多个源(multiple sources ):比如人物识别可以用脸、指纹等作为不同源的输入。 (2) 多个特征子集(different feature subsets;):比如图像表

    2024年02月05日
    浏览(82)
  • 强化学习论文阅读——自动分组Self-Organized Group for Cooperative Multi-Agent Reinforcement Learning

    Self-Organized Group for Cooperative Multi-Agent Reinforcement Learning 这是一篇发表在NeurIPS2022的论文,文章提出了一种分组算法,旨在提高算法零样本泛化能力 1 论文背景 CTDE :集中训练分散执行,在训练阶段将所有智能体的Q值加到一起去训练,训练完了之后在执行阶段大家各自执行自己

    2024年01月25日
    浏览(53)
  • 跨模态检索论文阅读:Learning Semantic Relationship among Instances for Image-Text Matching学习实例之间的语义关系实现图像-文本匹配

    图像-文本匹配是连接图像和语言的桥梁,也是一项重要的任务,它一般通过学习跨模态的整体嵌入来实现两种模态之间高质量的语义对齐。然而,以往的研究只关注捕捉特定模态的样本内的片段级关系,例如图像中的突出区域或句子中的文本词,而通常不太关注捕捉样本和模

    2024年02月04日
    浏览(50)
  • 【论文导读】- SpreadGNN: Serverless Multi-task Federated Learning for Graph Neural Networks(去服务器的多任务图联邦学习)

    SpreadGNN: Serverless Multi-task Federated Learning for Graph Neural Networks 原文链接:SpreadGNN: Serverless Multi-task Federated Learning for Graph Neural Networks:https://arxiv.org/abs/2106.02743 Graph Neural Networks (GNNs) are the first choice methods for graph machine learning problems thanks to their ability to learn state-of-the-art level repr

    2024年01月16日
    浏览(43)
  • 现实生活中机器学习的具体示例(Machine Learning 研习之二)

    机器学习在现实中的示例 通过上一篇的讲解,我们多多少少对 机器学习 (Machine Learning)有了些许了解,同时也对 机器学习 (Machine Learning)一词不再那么抗拒了。 那么, 机器学习 到底在现实生活为我们解决哪些难题呢?亦或是传统方案目前无法实现的。 1、可以分析生产

    2024年02月16日
    浏览(42)
  • 【机器学习】强化学习(六)-DQN(Deep Q-Learning)训练月球着陆器示例

    概述 Deep Q-Learning(深度 Q 学习)是一种强化学习算法,用于解决决策问题,其中代理(agent)通过学习在不同环境中采取行动来最大化累积奖励。Lunar Lander 是一个经典的强化学习问题,其中代理的任务是控制一个着陆舱在月球表面着陆,最小化着陆过程中的燃料消耗。 以下

    2024年01月25日
    浏览(62)
  • MaPLe: Multi-modal Prompt Learning

    本文也是LLM系统的文章,主要是面向多模态的大语言模型,针对《MaPLe: Multi-modal Prompt Learning》的翻译。 CLIP等预先训练的视觉语言(V-L)模型对下游任务表现出了出色的泛化能力。但是,它们对输入文本提示的选择很敏感,需要仔细选择提示模板才能执行良好的操作。受自然

    2024年02月09日
    浏览(42)
  • Multi-Grade Deep Learning for Partial Differential Equations

    偏微分方程定义 一个偏微分方程可以定义如下: F ( u ( t , x ) ) = 0 , x ∈ Ω , t ∈ ( 0 , T ] , I ( u ( 0 , x ) ) = 0 , x ∈ Ω , t = 0 , B ( u ( t , x ) ) = 0 , x ∈ Γ , t ∈ ( 0 , T ] , begin{aligned}mathcal{F}(u(t,x))=0,xinOmega,tin(0,T],\\\\mathcal{I}(u(0,x))=0,xinOmega,t=0,\\\\mathcal{B}(u(t,x))=0,xinGamma,tin(0,T],end

    2024年02月07日
    浏览(44)
  • 论文阅读 (79):TransMIL: Transformer based Correlated Multiple Instance Learning for Whole Slide Image

    2021:用于WSI分类的Transformer相关多示例 ( TransMIL: Transformer based correlated multiple instance learning for whole slide image classification ) WSI–MIL方法通常基于独立同分布假设,这忽略了不同实例之间的相关性。为了处理这个问题,提出了一个称为 相关多示例 的新框架。基于该框架,部署了

    2024年02月09日
    浏览(45)
  • Multi-Task Learning based Video Anomaly Detection with Attention 论文阅读

    文章信息: 原文链接:https://ieeexplore.ieee.org/document/10208994/ 源代码:无 发表于:CVPR 2023 基于多任务学习的视频异常检测方法将多个代理任务结合在不同的分支中,以便在不同情境中检测视频异常。然而,大多数现有方法存在以下一些缺点: I) 它们的代理任务组合方式不是以

    2024年01月20日
    浏览(47)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包