few-shot / one shot / zero shot object counting论文汇总

这篇具有很好参考价值的文章主要介绍了few-shot / one shot / zero shot object counting论文汇总。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

2018

Class-Agnostic Counting

code: https://paperswithcode.com/paper/class-agnostic-counting

摘要:几乎所有现有的计数方法都是为一个特定的对象类而设计的。然而,我们的工作旨在创建一个能够计数任何类对象的计数模型。为了实现这一目标,我们将计数表述为一个匹配问题,使我们能够利用对象计数问题中自然存在的图像自相似性。我们做出了以下三个贡献:首先,通用匹配网络(GMN)架构,它可以以类无关的方式对任何对象进行计数;其次,通过将计数问题重新定义为匹配对象之一,我们可以利用标记为跟踪的大量视频数据,其中包含适合训练计数模型的自然重复。这些数据使我们能够训练GMN。第三,为了根据不同的用户需求定制GMN,使用一个适配器模块以最小的努力专门化模型,即使用一些标记的示例,并只适应训练参数的一小部分。这是一种少镜头学习的形式,它对于由于需要专家知识(例如微生物学)而导致标签有限的领域是实用的。我们在一系列现有的计数基准上演示了我们的方法的灵活性:特别是单元格、汽车和人类人群。该模型在细胞和人群计数数据集上取得了具有竞争力的性能,仅使用三张训练图像就超过了最先进的汽车数据集。当在整个数据集上进行训练时,该方法的性能大大优于以往所有的方法。

few-shot / one shot / zero shot object counting论文汇总

2021

Learning To Count Everything

code: https://paperswithcode.com/paper/learning-to-count-everything
摘要:现有的视觉计数工作主要集中于一个特定的类别,如人、动物和细胞。在本文中,我们感兴趣的是计算所有内容,即计算来自任何类别的对象,只给出来自该类别的少数注释实例。为此,我们将计数作为一个几个镜头的回归任务。为了解决这一任务,我们提出了一种新的方法,它将查询图像与查询图像中的几个示例对象一起使用,并预测查询图像中所有感兴趣对象的存在的密度图。我们还提出了一种新的适应策略,以适应我们的网络在测试时适应任何新的视觉类别,只使用来自新类别的少数范例对象。我们还介绍了一个包含147个对象类别的数据集,其中包含超过6000张图像,适合于少镜头计数的任务。这些图像用两种类型的标注,点和边界框,它们可以用于开发少镜头计数模型。在该数据集上的实验表明,我们的方法优于几种最先进的目标探测器和少镜头计数方法。
few-shot / one shot / zero shot object counting论文汇总

OBJECT COUNTING: YOU ONLY NEED TO LOOK AT ONE

摘要: 本文旨在解决一个热门对象计数的挑战性任务。给定一个包含新颖的、以前未见过的类别对象的图像,该任务的目标是只使用一个支持的边界框示例来计算所需类别中的所有实例。为此,我们提出了一个计数模型,通过该模型,您只需要查看一个实例(LaoNet)。首先,一个特征相关模块结合了自我注意和相关注意模块来学习内部关系和相互关系。它使网络对不同实例之间的旋转和大小的不一致性具有鲁棒性。其次,设计了一种尺度聚合机制来帮助提取具有不同尺度信息的特征。与现有的少镜头计数方法相比,LaoNet在学习收敛速度较快的同时,取得了最先进的结果。
few-shot / one shot / zero shot object counting论文汇总

2022

Represent, Compare, and Learn: A Similarity-Aware Framework for Class-Agnostic Counting

code: https://github.com/SinicaGroup/Class-agnostic-Few-shot-Object-Counting

摘要:类不可知计数(CAC)的目的是对给定少数样本的查询图像中的所有实例进行计数。一个标准的管道是从范例中提取视觉特征,并将它们与查询图像进行匹配,以推断对象计数。这个管道中的两个基本组成部分是特征表示和相似度度量。现有的方法要么采用预先训练好的网络来表示特征,要么学习新的特征,同时应用具有固定内积的朴素相似度度量。我们发现这种范式导致噪声相似性匹配,从而损害计数性能。在这项工作中,我们提出了一个相似度感知的CAC框架,联合学习表示和相似度度量。我们首先用一个称为双线线性匹配网络(BMNet)的朴素基线实例化我们的框架,它的关键组件是一个可学习的双线性相似度度量。为了进一步体现我们框架的核心,我们将BMNet扩展到BMNet+,从三个方面建模相似性: 1)通过自相似性来表示实例,以增强实例对类内变化的特征鲁棒性;2)动态比较相似性,以关注每个样本的关键模式;3)从监督信号中学习,对匹配结果施加显式约束。在最近的CAC数据集FSC147上进行的广泛实验表明,我们的模型明显优于最先进的CAC方法。
few-shot / one shot / zero shot object counting论文汇总
few-shot / one shot / zero shot object counting论文汇总

Learning to Count Anything: Reference-less Class-agnostic Counting with Weak Supervision

code: https://paperswithcode.com/paper/learning-to-count-anything-reference-less

摘要:当前的类不可知的计数方法可以推广到不可见的类,但通常需要参考图像来定义要计数的对象的类型,以及在训练期间的实例注释。无参考的类不可知的计数是一个新兴的领域,它认为计数的核心是一个重复识别任务。这些方法有助于计算一个不断变化的集合组合。我们展示了具有全局上下文的一般特征空间可以枚举图像中的实例,而不枚举对象类型的存在。具体来说,我们证明了从没有点级监督或参考图像的视觉变压器特征中回归优于其他无参考的方法,并且与使用参考图像的方法具有竞争力。我们在当前标准的少镜头计数数据集FSC-147上展示了这一点。我们还提出了一个改进的数据集,FSC-133,它消除了来自FSC-147中的错误、歧义和重复图像,并在其上展示了类似的性能。据我们所知,我们是第一个弱监督无类不可知计数方法。
few-shot / one shot / zero shot object counting论文汇总

Scale-Prior Deformable Convolution for Exemplar-Guided Class-Agnostic Counting

摘要:类不可知论计数最近成为一项更实用的计数任务,它旨在预测任何范例对象的数量和分布,而不是计算行人或汽车等特定类别。然而,最近的方法是在设计样本和查询图像之间的相似匹配规则,而忽略了提取特征的鲁棒性。为了解决这个问题,我们提出了一种尺度先验可变形卷积,通过将样本的信息,例如,尺度,集成到计数网络的主干中。结果表明,所提出的计数网络可以提取与给定样本相似的对象的语义特征,并有效地过滤不相关的背景。此外,我们发现,由于不同样本中的对象尺度的不同,传统的l2和广义损失不适用于类不可知计数。在此,我们提出了一个尺度敏感的广义损失来解决这个问题。它可以根据给定的范例调整成本函数公式,使预测和地面真实值之间的差异更加突出。大量的实验表明,我们的模型获得了显著的改进,并在一个公共的类无关的计数基准上取得了最先进的性能。
few-shot / one shot / zero shot object counting论文汇总
few-shot / one shot / zero shot object counting论文汇总

CounTR: Transformer-based Generalised Visual Counting

摘要:在本文中,我们考虑了广义视觉对象计数问题,目的是开发一个计算模型来计算任意语义类别的对象数量,使用任意数量的“范例”,即零射击或低射计数。为此,我们做出了以下四个贡献: (1)我们引入了一种新的基于transformer的架构,用于一般化视觉对象计数,称为计数transformer(CounTR),它明确地捕捉图像补丁之间的相似性或给定的“样本”;(2)采用两阶段训练机制,首先用自监督学习对模型进行预训练,然后进行监督微调;(3)我们提出了一个简单的、可扩展的管道,用于合成具有大量实例或来自不同语义类别的训练图像,明确地迫使模型使用给定的“范例”;(4)我们对大规模计数基准进行了彻底的消融研究,如FSC- 147,并在零镜头和少镜头设置上展示了最先进的性能。
few-shot / one shot / zero shot object counting论文汇总

Few-shot Object Counting with Similarity-Aware Feature Enhancement

code: https://github.com/zhiyuanyou/SAFECount

摘要:这项工作研究了少镜头对象计数的问题,它计数在查询图像中发生的范例对象(即,由一个或几个支持图像描述)的数量。主要的挑战在于,目标对象可以密集地打包在查询图像中,这使得很难识别每一个对象。为了解决这一障碍,我们提出了一种新的学习模块,包括相似度比较模块和特征增强模块。具体地说,给定一个支持图像和一个查询图像,我们首先通过比较它们在每个空间位置上的投影特征来得到一个得分图。关于所有支持图像的得分图被一起收集,并跨范例维度和空间维度进行归一化,生成一个可靠的相似性图。然后,我们利用所开发的点向相似性作为加权系数,利用支持特征来增强查询特征。这种设计鼓励模型通过更多地关注类似于支持图像的区域来检查查询图像,从而使不同对象之间的边界更加清晰。在各种基准和训练设置上的广泛实验表明,我们以足够大的优势超过了最先进的方法。例如,在最近的一个大规模的FSC-147数据集上,我们通过将平均绝对误差从22.08提高到14.32(35%↑),超过了最先进的方法。
few-shot / one shot / zero shot object counting论文汇总
few-shot / one shot / zero shot object counting论文汇总

Few-shot Object Counting and Detection

code: https://paperswithcode.com/paper/few-shot-object-counting-and-detection

摘要: 我们处理了一个关于少射目标计数和检测的新任务。给定一个目标对象类的几个示例边界框,我们试图计数和检测目标类中的所有对象。此任务与少镜头对象计数共享相同的监督,但另外输出对象边界框和总对象计数。为了解决这一具有挑战性的问题,我们引入了一种新的双阶段训练策略和一种新的不确定性感知的少镜头目标检测器:计数-detr。前者旨在生成伪地真边界框来训练后者。后者利用了前者提供的伪地真,但采取了必要的步骤来解释伪地真的不完善性。为了验证我们的方法在新任务上的性能,我们引入了两个新的数据集FSCD-147和FSCD-LVIS。这两个数据集都包含具有复杂场景的图像,每个图像有多个对象类,以及对象形状、大小和外观的巨大变化。我们提出的方法在计数和检测方面优于在计数和检测方面都有很大的优势。

few-shot / one shot / zero shot object counting论文汇总
few-shot / one shot / zero shot object counting论文汇总

2023

CAN SAM COUNT ANYTHING? AN EMPIRICAL STUDY ON SAM COUNTING

code: https://github.com/Vision-Intelligence-and-Robots-Group/count-anything

摘要:Meta AI最近发布了“分段任何东西模型”(SAM),该模型因其在类不可知分割方面令人印象深刻的表现而获得了关注。在本研究中,我们探讨了使用SAM进行具有挑战性的少镜头对象计数任务,即通过提供几个边界框来计数一个看不见类别的对象。我们将SAM的性能与其他少量的镜头计数方法进行了比较,发现目前没有进一步的微调,它并不令人满意,特别是对于小的和拥挤的对象。
few-shot / one shot / zero shot object counting论文汇总
few-shot / one shot / zero shot object counting论文汇总

Zero-Shot Object Counting

code: https://github.com/cvlab-stonybrook/zero-shot-counting

摘要: 类不可知的对象计数的目的是在测试时计算任意类的对象实例。目前解决这一具有挑战性问题的方法需要人工注释的范例作为输入,而这对于新的类别通常是不可用的,特别是对于自治系统。因此,我们提出了零射击对象计数(ZSC),这是一个新的设置,在测试期间只有类名可用。这样的计数系统不需要循环中的人工注释器,并且可以自动操作。从一个类名开始,我们提出了一种方法,可以准确地识别最优补丁,然后可以用作计数样本。具体来说,我们首先构建一个类原型来选择可能包含感兴趣的对象的补丁,即与类相关的补丁。此外,我们引入了一个模型,可以定量地衡量任意补丁作为计数范例的适应性。通过将该模型应用于所有的候选补丁,我们可以选择最合适的补丁作为范例进行计数。在最近的类不可知计数数据集FSC-147上的实验结果验证了我们的方法的有效性。
few-shot / one shot / zero shot object counting论文汇总

CounTR: Transformer-based Generalised Visual Counting

code: https://paperswithcode.com/paper/countr-transformer-based-generalised-visual

摘要:在本文中,我们考虑了广义视觉对象计数问题,目的是开发一个计算模型来计算任意语义类别的对象数量,使用任意数量的“范例”,即零射击或低射计数。为此,我们做出了以下四个贡献: (1)我们引入了一种新的基于变压器的架构,用于一般化视觉对象计数,称为计数变换器(CounTR),它明确地捕捉图像补丁之间的相似性或给定的“样本”;(2)采用两阶段训练机制,首先用自监督学习对模型进行预训练,然后进行监督微调;(3)我们提出了一个简单的、可扩展的管道,用于合成具有大量实例或来自不同语义类别的训练图像,明确地迫使模型使用给定的“范例”;(4)我们对大规模计数基准进行了彻底的消融研究,如FSC- 147,并在零镜头和少镜头设置上展示了最先进的性能。
few-shot / one shot / zero shot object counting论文汇总

CLIP-Count: Towards Text-Guided Zero-Shot Object Counting

code: https://paperswithcode.com/paper/clip-count-towards-text-guided-zero-shot

摘要: 视觉语言模型的最新进展显示了显著的零镜头文本图像匹配能力,可转移到下游任务,如目标检测和分割。然而,调整这些模型进行物体计数,其中包括估计图像中物体的数量,仍然是一个艰巨的挑战。在本研究中,我们首次探索了转移视觉语言模型的类不可知的对象计数。具体来说,我们提出了CLIP-Count,这是一种新的管道,可以以零镜头文本引导的方式估计开放词汇量对象的密度映射,而不需要对特定的对象类进行任何微调。为了将文本嵌入与密集图像特征对齐,我们引入了一个块-文本对比损失,指导模型学习信息块级图像表示,以进行密集预测。此外,我们设计了一个分层的补丁-文本交互模块,在不同的分辨率图像特征上传播语义信息。得益于充分利用预先训练好的视觉语言模型的丰富的图像-文本对齐知识,我们的方法有效地为感兴趣的对象生成高质量的密度映射。在FSC-147、CARPK和上海科技人群计数数据集上进行的大量实验表明,我们提出的方法达到了最先进的零射击目标计数的精度和通用性。

few-shot / one shot / zero shot object counting论文汇总
few-shot / one shot / zero shot object counting论文汇总文章来源地址https://www.toymoban.com/news/detail-485180.html

到了这里,关于few-shot / one shot / zero shot object counting论文汇总的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • 遥感图像中的小样本目标检测:Few-shot Object Detection on Remote SensingImages

    论文下载:https://arxiv.org/pdf/2006.07826v2.pdf        在本文中,我们处理遥感图像上的目标检测问题。以前的方法已经发展了许多基于深度卷积的遥感图像目标检测方法,在检测性能和效率方面取得了显著的成就。然而,目前基于CNN的方法大多需要大量带注释的样本来训练深层

    2024年02月03日
    浏览(43)
  • 【论文阅读】Language Models are Few-Shot Learners(GPT-3)

    本文简要介绍了GPT-3的背景,模型架构,训练数据以及训练方式部分。具体训练细节,实验结果很多,可以在用到的时候再看 本文剖析了pretrain-finetune架构存在的问题: 对于每个新的任务,都需要大量的标注数据 将表达能力更强的模型(预训练阶段要求用大模型)在比较窄的

    2024年02月14日
    浏览(54)
  • (GPT3)Language Models are Few-Shot Learners论文阅读

    论文地址:https://arxiv.org/pdf/2005.14165v4.pdf         最近的工作表明, 通过对大量文本语料库进行预训练,然后对特定任务进行微调,许多 NLP 任务和基准测试取得了实质性进展 。 虽然在体系结构中通常与任务无关,但此方法仍然需要特定于任务的微调数据集,其中包含数

    2024年02月08日
    浏览(66)
  • 论文笔记|CVPR2023:Semantic Prompt for Few-Shot Image Recognition

    论文地址:https://arxiv.org/pdf/2303.14123.pdf 这是一篇2023年发表在CVPR上的论文,论文题目是Semantic Prompt for Few-Shot Image Recognitio,即用于小样本图像识别的语义提示。 第一,最近几项研究利用 语义信息 来进行小样本学习的研究。 一方面因为通过少量样本去识别新类别很难,就想使

    2024年02月04日
    浏览(56)
  • 论文阅读---Albert :Few-shot Learning with Retrieval Augmented Language Models

    增强语言模型 Augmented Language Models https://arxiv.org/abs/2208.03299 提前知识: BERT (Bidirectional Encoder Representations from Transformers)是一种预训练语言模型,它通过在大规模文本数据上进行预训练,学习文本的双向表示,并在多种NLP任务中展现出卓越的性能。BERT的双向性意味着它能够

    2024年04月23日
    浏览(42)
  • 【论文精读】CONTAINER: Few-Shot Named Entity Recognition via Contrastive Learning

    一篇来自ACL2022的文章,采用对比学习的方法提高模型的性能,在实现方法上和实验论证部分很值得借鉴,至于和大模型性能的对比,还需要进一步的调研~ 低资源场景NER不可或缺,但现有的方法仅从源域学习特定的语义特征和中间表示,这会影响对目标域的泛化能力,降低性

    2024年02月05日
    浏览(57)
  • 论文笔记|CVPR2023:Supervised Masked Knowledge Distillation for Few-Shot Transformers

    这篇论文的题目是 用于小样本Transformers的监督遮掩知识蒸馏 论文接收: CVPR 2023 论文地址: https://arxiv.org/pdf/2303.15466.pdf 代码链接: https://github.com/HL-hanlin/SMKD 1.ViT在小样本学习(只有少量标记数据的小型数据集)中往往会 过拟合,并且由于缺乏 归纳偏置 而导致性能较差;

    2024年02月06日
    浏览(53)
  • Spectral Adversarial MixUp for Few-Shot Unsupervised Domain Adaptation论文速读

    域偏移是临床应用中的常见问题,其中训练图像(源域)和测试图像(目标域)处于不同的分布下。已经提出了无监督域适应 (UDA) 技术,以使在源域中训练的模型适应目标域。但是,这些方法需要来自目标域的大量图像进行模型训练。 本文提出了一种新的少样本无监督域

    2024年04月28日
    浏览(42)
  • 论文精读:用于少样本图像识别的语义提示(Semantic Prompt for Few-Shot Image Recognition)

    原论文于2023.11.6撤稿,原因:缺乏合法的授权 ,详见此处 在小样本学习中(Few-shot Learning, FSL)中,有通过利用额外的语义信息,如类名的文本Embedding,通过将语义原型与视觉原型相结合来解决样本稀少的问题。但这种方法可能会遇到稀有样本中学到噪声特征导致收益有限。

    2024年02月08日
    浏览(54)
  • 【论文阅读24】Better Few-Shot Text Classification with Pre-trained Language Model

    论文标题:Label prompt for multi-label text classification(基于预训练模型对少样本进行文本分类) 发表时间:2021 领域:多标签文本分类 发表期刊:ICANN(顶级会议) 相关代码:无 数据集:无 最近,预先训练过的语言模型在许多基准测试上都取得了非凡的性能。通过从一个大型的

    2024年02月14日
    浏览(46)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包