2018
Class-Agnostic Counting
code: https://paperswithcode.com/paper/class-agnostic-counting
摘要:几乎所有现有的计数方法都是为一个特定的对象类而设计的。然而,我们的工作旨在创建一个能够计数任何类对象的计数模型。为了实现这一目标,我们将计数表述为一个匹配问题,使我们能够利用对象计数问题中自然存在的图像自相似性。我们做出了以下三个贡献:首先,通用匹配网络(GMN)架构,它可以以类无关的方式对任何对象进行计数;其次,通过将计数问题重新定义为匹配对象之一,我们可以利用标记为跟踪的大量视频数据,其中包含适合训练计数模型的自然重复。这些数据使我们能够训练GMN。第三,为了根据不同的用户需求定制GMN,使用一个适配器模块以最小的努力专门化模型,即使用一些标记的示例,并只适应训练参数的一小部分。这是一种少镜头学习的形式,它对于由于需要专家知识(例如微生物学)而导致标签有限的领域是实用的。我们在一系列现有的计数基准上演示了我们的方法的灵活性:特别是单元格、汽车和人类人群。该模型在细胞和人群计数数据集上取得了具有竞争力的性能,仅使用三张训练图像就超过了最先进的汽车数据集。当在整个数据集上进行训练时,该方法的性能大大优于以往所有的方法。
2021
Learning To Count Everything
code: https://paperswithcode.com/paper/learning-to-count-everything
摘要:现有的视觉计数工作主要集中于一个特定的类别,如人、动物和细胞。在本文中,我们感兴趣的是计算所有内容,即计算来自任何类别的对象,只给出来自该类别的少数注释实例。为此,我们将计数作为一个几个镜头的回归任务。为了解决这一任务,我们提出了一种新的方法,它将查询图像与查询图像中的几个示例对象一起使用,并预测查询图像中所有感兴趣对象的存在的密度图。我们还提出了一种新的适应策略,以适应我们的网络在测试时适应任何新的视觉类别,只使用来自新类别的少数范例对象。我们还介绍了一个包含147个对象类别的数据集,其中包含超过6000张图像,适合于少镜头计数的任务。这些图像用两种类型的标注,点和边界框,它们可以用于开发少镜头计数模型。在该数据集上的实验表明,我们的方法优于几种最先进的目标探测器和少镜头计数方法。
OBJECT COUNTING: YOU ONLY NEED TO LOOK AT ONE
摘要: 本文旨在解决一个热门对象计数的挑战性任务。给定一个包含新颖的、以前未见过的类别对象的图像,该任务的目标是只使用一个支持的边界框示例来计算所需类别中的所有实例。为此,我们提出了一个计数模型,通过该模型,您只需要查看一个实例(LaoNet)。首先,一个特征相关模块结合了自我注意和相关注意模块来学习内部关系和相互关系。它使网络对不同实例之间的旋转和大小的不一致性具有鲁棒性。其次,设计了一种尺度聚合机制来帮助提取具有不同尺度信息的特征。与现有的少镜头计数方法相比,LaoNet在学习收敛速度较快的同时,取得了最先进的结果。
2022
Represent, Compare, and Learn: A Similarity-Aware Framework for Class-Agnostic Counting
code: https://github.com/SinicaGroup/Class-agnostic-Few-shot-Object-Counting
摘要:类不可知计数(CAC)的目的是对给定少数样本的查询图像中的所有实例进行计数。一个标准的管道是从范例中提取视觉特征,并将它们与查询图像进行匹配,以推断对象计数。这个管道中的两个基本组成部分是特征表示和相似度度量。现有的方法要么采用预先训练好的网络来表示特征,要么学习新的特征,同时应用具有固定内积的朴素相似度度量。我们发现这种范式导致噪声相似性匹配,从而损害计数性能。在这项工作中,我们提出了一个相似度感知的CAC框架,联合学习表示和相似度度量。我们首先用一个称为双线线性匹配网络(BMNet)的朴素基线实例化我们的框架,它的关键组件是一个可学习的双线性相似度度量。为了进一步体现我们框架的核心,我们将BMNet扩展到BMNet+,从三个方面建模相似性: 1)通过自相似性来表示实例,以增强实例对类内变化的特征鲁棒性;2)动态比较相似性,以关注每个样本的关键模式;3)从监督信号中学习,对匹配结果施加显式约束。在最近的CAC数据集FSC147上进行的广泛实验表明,我们的模型明显优于最先进的CAC方法。
Learning to Count Anything: Reference-less Class-agnostic Counting with Weak Supervision
code: https://paperswithcode.com/paper/learning-to-count-anything-reference-less
摘要:当前的类不可知的计数方法可以推广到不可见的类,但通常需要参考图像来定义要计数的对象的类型,以及在训练期间的实例注释。无参考的类不可知的计数是一个新兴的领域,它认为计数的核心是一个重复识别任务。这些方法有助于计算一个不断变化的集合组合。我们展示了具有全局上下文的一般特征空间可以枚举图像中的实例,而不枚举对象类型的存在。具体来说,我们证明了从没有点级监督或参考图像的视觉变压器特征中回归优于其他无参考的方法,并且与使用参考图像的方法具有竞争力。我们在当前标准的少镜头计数数据集FSC-147上展示了这一点。我们还提出了一个改进的数据集,FSC-133,它消除了来自FSC-147中的错误、歧义和重复图像,并在其上展示了类似的性能。据我们所知,我们是第一个弱监督无类不可知计数方法。
Scale-Prior Deformable Convolution for Exemplar-Guided Class-Agnostic Counting
摘要:类不可知论计数最近成为一项更实用的计数任务,它旨在预测任何范例对象的数量和分布,而不是计算行人或汽车等特定类别。然而,最近的方法是在设计样本和查询图像之间的相似匹配规则,而忽略了提取特征的鲁棒性。为了解决这个问题,我们提出了一种尺度先验可变形卷积,通过将样本的信息,例如,尺度,集成到计数网络的主干中。结果表明,所提出的计数网络可以提取与给定样本相似的对象的语义特征,并有效地过滤不相关的背景。此外,我们发现,由于不同样本中的对象尺度的不同,传统的l2和广义损失不适用于类不可知计数。在此,我们提出了一个尺度敏感的广义损失来解决这个问题。它可以根据给定的范例调整成本函数公式,使预测和地面真实值之间的差异更加突出。大量的实验表明,我们的模型获得了显著的改进,并在一个公共的类无关的计数基准上取得了最先进的性能。
CounTR: Transformer-based Generalised Visual Counting
摘要:在本文中,我们考虑了广义视觉对象计数问题,目的是开发一个计算模型来计算任意语义类别的对象数量,使用任意数量的“范例”,即零射击或低射计数。为此,我们做出了以下四个贡献: (1)我们引入了一种新的基于transformer的架构,用于一般化视觉对象计数,称为计数transformer(CounTR),它明确地捕捉图像补丁之间的相似性或给定的“样本”;(2)采用两阶段训练机制,首先用自监督学习对模型进行预训练,然后进行监督微调;(3)我们提出了一个简单的、可扩展的管道,用于合成具有大量实例或来自不同语义类别的训练图像,明确地迫使模型使用给定的“范例”;(4)我们对大规模计数基准进行了彻底的消融研究,如FSC- 147,并在零镜头和少镜头设置上展示了最先进的性能。
Few-shot Object Counting with Similarity-Aware Feature Enhancement
code: https://github.com/zhiyuanyou/SAFECount
摘要:这项工作研究了少镜头对象计数的问题,它计数在查询图像中发生的范例对象(即,由一个或几个支持图像描述)的数量。主要的挑战在于,目标对象可以密集地打包在查询图像中,这使得很难识别每一个对象。为了解决这一障碍,我们提出了一种新的学习模块,包括相似度比较模块和特征增强模块。具体地说,给定一个支持图像和一个查询图像,我们首先通过比较它们在每个空间位置上的投影特征来得到一个得分图。关于所有支持图像的得分图被一起收集,并跨范例维度和空间维度进行归一化,生成一个可靠的相似性图。然后,我们利用所开发的点向相似性作为加权系数,利用支持特征来增强查询特征。这种设计鼓励模型通过更多地关注类似于支持图像的区域来检查查询图像,从而使不同对象之间的边界更加清晰。在各种基准和训练设置上的广泛实验表明,我们以足够大的优势超过了最先进的方法。例如,在最近的一个大规模的FSC-147数据集上,我们通过将平均绝对误差从22.08提高到14.32(35%↑),超过了最先进的方法。
Few-shot Object Counting and Detection
code: https://paperswithcode.com/paper/few-shot-object-counting-and-detection
摘要: 我们处理了一个关于少射目标计数和检测的新任务。给定一个目标对象类的几个示例边界框,我们试图计数和检测目标类中的所有对象。此任务与少镜头对象计数共享相同的监督,但另外输出对象边界框和总对象计数。为了解决这一具有挑战性的问题,我们引入了一种新的双阶段训练策略和一种新的不确定性感知的少镜头目标检测器:计数-detr。前者旨在生成伪地真边界框来训练后者。后者利用了前者提供的伪地真,但采取了必要的步骤来解释伪地真的不完善性。为了验证我们的方法在新任务上的性能,我们引入了两个新的数据集FSCD-147和FSCD-LVIS。这两个数据集都包含具有复杂场景的图像,每个图像有多个对象类,以及对象形状、大小和外观的巨大变化。我们提出的方法在计数和检测方面优于在计数和检测方面都有很大的优势。
2023
CAN SAM COUNT ANYTHING? AN EMPIRICAL STUDY ON SAM COUNTING
code: https://github.com/Vision-Intelligence-and-Robots-Group/count-anything
摘要:Meta AI最近发布了“分段任何东西模型”(SAM),该模型因其在类不可知分割方面令人印象深刻的表现而获得了关注。在本研究中,我们探讨了使用SAM进行具有挑战性的少镜头对象计数任务,即通过提供几个边界框来计数一个看不见类别的对象。我们将SAM的性能与其他少量的镜头计数方法进行了比较,发现目前没有进一步的微调,它并不令人满意,特别是对于小的和拥挤的对象。
Zero-Shot Object Counting
code: https://github.com/cvlab-stonybrook/zero-shot-counting
摘要: 类不可知的对象计数的目的是在测试时计算任意类的对象实例。目前解决这一具有挑战性问题的方法需要人工注释的范例作为输入,而这对于新的类别通常是不可用的,特别是对于自治系统。因此,我们提出了零射击对象计数(ZSC),这是一个新的设置,在测试期间只有类名可用。这样的计数系统不需要循环中的人工注释器,并且可以自动操作。从一个类名开始,我们提出了一种方法,可以准确地识别最优补丁,然后可以用作计数样本。具体来说,我们首先构建一个类原型来选择可能包含感兴趣的对象的补丁,即与类相关的补丁。此外,我们引入了一个模型,可以定量地衡量任意补丁作为计数范例的适应性。通过将该模型应用于所有的候选补丁,我们可以选择最合适的补丁作为范例进行计数。在最近的类不可知计数数据集FSC-147上的实验结果验证了我们的方法的有效性。
CounTR: Transformer-based Generalised Visual Counting
code: https://paperswithcode.com/paper/countr-transformer-based-generalised-visual
摘要:在本文中,我们考虑了广义视觉对象计数问题,目的是开发一个计算模型来计算任意语义类别的对象数量,使用任意数量的“范例”,即零射击或低射计数。为此,我们做出了以下四个贡献: (1)我们引入了一种新的基于变压器的架构,用于一般化视觉对象计数,称为计数变换器(CounTR),它明确地捕捉图像补丁之间的相似性或给定的“样本”;(2)采用两阶段训练机制,首先用自监督学习对模型进行预训练,然后进行监督微调;(3)我们提出了一个简单的、可扩展的管道,用于合成具有大量实例或来自不同语义类别的训练图像,明确地迫使模型使用给定的“范例”;(4)我们对大规模计数基准进行了彻底的消融研究,如FSC- 147,并在零镜头和少镜头设置上展示了最先进的性能。
CLIP-Count: Towards Text-Guided Zero-Shot Object Counting
code: https://paperswithcode.com/paper/clip-count-towards-text-guided-zero-shot
摘要: 视觉语言模型的最新进展显示了显著的零镜头文本图像匹配能力,可转移到下游任务,如目标检测和分割。然而,调整这些模型进行物体计数,其中包括估计图像中物体的数量,仍然是一个艰巨的挑战。在本研究中,我们首次探索了转移视觉语言模型的类不可知的对象计数。具体来说,我们提出了CLIP-Count,这是一种新的管道,可以以零镜头文本引导的方式估计开放词汇量对象的密度映射,而不需要对特定的对象类进行任何微调。为了将文本嵌入与密集图像特征对齐,我们引入了一个块-文本对比损失,指导模型学习信息块级图像表示,以进行密集预测。此外,我们设计了一个分层的补丁-文本交互模块,在不同的分辨率图像特征上传播语义信息。得益于充分利用预先训练好的视觉语言模型的丰富的图像-文本对齐知识,我们的方法有效地为感兴趣的对象生成高质量的密度映射。在FSC-147、CARPK和上海科技人群计数数据集上进行的大量实验表明,我们提出的方法达到了最先进的零射击目标计数的精度和通用性。文章来源:https://www.toymoban.com/news/detail-485180.html
文章来源地址https://www.toymoban.com/news/detail-485180.html
到了这里,关于few-shot / one shot / zero shot object counting论文汇总的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!