论文阅读:YOLOV: Making Still Image Object Detectors Great at Video Object Detection

这篇具有很好参考价值的文章主要介绍了论文阅读:YOLOV: Making Still Image Object Detectors Great at Video Object Detection。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

发表时间:2023年3月5日
论文地址:https://arxiv.org/abs/2208.09686
项目地址:https://github.com/YuHengsss/YOLOV

视频物体检测(VID)具有挑战性,因为物体外观的高度变化以及一些帧的不同恶化。有利的信息是,与静止图像相比在视频的某一帧中检测,可以从其他帧中获得支持。因此,如何在不同的框架之间聚合特性是VID问题的关键。大多数现有的聚合算法都是为两阶段检测器定制的。然而,由于这些探测器的两阶段性质,其计算成本通常很昂贵。本文提出了一个简单而有效的策略来解决上述问题,该问题会带来微量计算量,但使准确性有显著提高。具体地说,与传统的两阶段pipeline不同,我们在一期检测后选择重要的区域,以避免处理大量低质量的候选区域。此外,我们还评估了目标系和参考系之间的关系来指导聚合。我们进行了广泛的实验和消融研究来验证我们的设计的有效性,并揭示了它在有效性和效率方面都优于其他最先进的VID方法。我们基于YOLOX的模型可以实现良好的性能(例如,在一个2080TiGPU上的ImageNet视频数据集上超过30 FPS的87.5%AP50),使其在大规模或实时应用中具有吸引力。

1、Introduction

物体检测作为基于视觉的智能应用的关键组成部分,目的是同时定位和分类图像中的物体。由于卷积神经网络(CNN)的强大能力,最近提出了许多基于CNN的目标检测模型,这些模型可以大致分为两类,如一级和两级目标探测器。具体来说,两阶段检测器首先选择可能的对象区域(proposals),然后对这些区域进行分类。基于区域的CNN(R-CNN)的一系列模型是具有多种后续工作的两级目标探测器的先驱,显著提高了检测的准确性。给定区域级的特征,这些静止图像的检测器可以很容易地转移到更复杂的任务,如分割和视频目标检测。然而,由于两阶段的性质,效率是实际应用的瓶颈。而对于单级目标对象探测器,定位和分类是联合基地探测器,我们的直接由特征图的密集预测产生。YOLO家族和SSD 是该群体的代表。如果不像上述两阶段方法那样求助于区域proposals,一级探测器的速度更优越,适合具有实时需求的场景。虽然一级探测器的精度在开始时通常较差,但后续设计在很大程度上缩小了精度差距。
指出目标检测器有单阶段和二阶段的,二阶段检测器精度高单性能差,但随着技术发展阶段检测器基本上在性能上持平

视频目标检测可以看作是静止图像目标检测的高级版本。直观地说,人们可以通过将帧逐个输入静止图像对象检测器来处理视频序列。然而,跨帧的时间信息没有被利用,这可能是消除和减少单一图像的模糊性的关键。如图1所示,在视频帧中经常出现运动模糊、相机离焦和遮挡等退化,显著增加了检测的难度。例如,仅仅看图1中的最后一帧,人类很难甚至不可能知道物体在哪里和什么。另一方面,视频序列可以比单个静止图像能够提供更丰富的信息。换句话说,相同序列中的其他帧可能支持对某一帧的预测。因此,如何有效地聚合来自不同框架的时间线索是提高准确性的关键。
1、在视频检测中经常存在运动模糊,基于单帧信息某些时刻是无法确定目标特征,需要结合多帧上下文
2、在视频检测中,有一个分支为无人机视频检测,存在光照烟雾干扰、目标运动模糊、小尺度目标(基于运动信息才能确定是目标,单帧图像无法定义为目标)
3、本文解决的主要是视频检测中的运动模糊,对于无人机视角下小目标运动没有提出优化

imagenet vid,# 目标检测,论文阅读,目标检测,人工智能

在现有方案中,帧聚合主要有两种类型,即 box-levelfeature-level。这两种技术路线可以从不同的角度提高检测精度。对于box-level方法,他们通过连接边界盒将静止对象检测器的预测连接起来,形成序列,然后在同一序列中细化结果。盒级的方法可以看作是后处理方法,可以灵活地应用于一级和两级的检测器

而对于feature-level方法,关键帧的特征通过从其他帧(即参考帧)中寻找和聚合相似的特征而得到增强。两阶段的方式使proposals能够从区域提案网络(RPN)提取的主干特征图中得到显式的表示。得益于这一性质,两级探测器可以很容易地迁移到视频目标检测问题。因此,大多数视频对象探测器都是建立在两级探测器上的。

但是,由于聚合模块的原因,这种两级视频对象检测器的速度进一步减慢,难以满足实时使用的需要。与两阶段方法不同的是,proposals由单阶段检测器的特征图中每个位置的特征隐式表示。但是,如果没有对对象的显式表示,这些特性仍然可以从聚合VID任务的时间信息中获益。同样,如前所述,一阶段策略通常比这两阶段策略运行得更快。在这些考虑的驱动下,一个自然的问题出现了:我们能否使这样的区域级设计可用于单级探测器,同时保持构建一个实用的(准确的和快速的)视频物体探测器的快速速度?

Contribution
本文通过设计一种简单而有效的策略来聚合由单阶段检测器(如YOLOX(Gee人2021b)生成的特征)来回答上述问题。为了将参考系的特征与关键帧中的特征连接起来,我们提出了一个特征相似度量模块来构造亲和矩阵,然后利用亲和矩阵来指导聚合。为了进一步减轻余弦相似度的限制,我们定制了参考特征上的平均池算子。这两种操作消耗边际计算资源,在精度上显著提高。有了提出的策略,我们的模型,称为YOLOV,可以在一个2080Ti GPU上实现40+的视频数据集的AP50精度85.5%,详见图2),这对实际场景很有吸引力。通过进一步引入后处理,其精度在30 FPS以上达到87.5%。
imagenet vid,# 目标检测,论文阅读,目标检测,人工智能

2、Related Work

本节将简要回顾与本工作密切相关的目标检测的代表性方法。
在静止图像中的目标检测。 由于硬件、大规模数据集和复杂的网络结构,目标检测的性能不断提高。现有的目标探测器主要可分为两阶段和辅助监测方案。具有代表性的两级探测器,如RCNN、faster-RCNN、R-FCN和Mask RCNN。该组的方法首先通过RPN选择候选区域,然后通过一些特征提取模块提取候选特征,如RoIpoolin和RoIAlign。最后,他们通过一个额外的检测头进行边界盒回归和分类。还有许多成功的单级探测器,如YOLO系列、SSD系列、RetinaNet系列、FCOS系列等。与两阶段探测器不同的是,单级探测器对特征图进行密集预测,并直接预测位置和类概率。由于端到端的方式,一级探测器通常比两级探测器快。然而,它们缺乏被广泛用于视频对象检测中的特征聚合的显式区域级语义特征。我们的工作试图探索在单级探测器的特征图中聚合超过位置级特征的可行性。

视频中的对象检测。 与静止图像目标检测相比,在一些视频帧中可能经常出现退化。当关键帧被污染时,时间信息可能有助于更好地检测。现有的视频对象探测器集中于轨迹级后处理(Han等人2016年;贝尔哈森等人2019年;萨巴特、蒙特萨诺和穆里洛2020年)。这类方法试图通过形成box序列来细化连续帧中静止图像检测器的预测结果。每个盒子的最终分类分数根据整个序列进行调整。另一种方法在于增强关键帧的特性,期望通过利用(选定的)参考帧中的特性来减轻性能退化。这些方法可大致分为flow-based、attention-based和tracking-based。深度特征flow(Zhu et al. 2017b)首先引入光流进行图像级特征对齐,FGFA采用光流沿着运动路径聚集特征。考虑到图像级特征聚合的计算代价,提出了几种基于注意点的方法。SESLA作为代表,根据区域级特征之间的语义相似性,提出了一种长程特征聚合方案。受Relation Networks(Hu等人2018)用于静止图像检测的关系模块的启发,RDN(Deng等人2019)捕获了空间和时间背景下物体之间的关系。此外,MEGA(Chen et al. 2020)设计了一个内存增强的全局-局部聚合模块,以便更好地建模对象之间的关系。另外,TROIA(Gong等人2021)利用ROI-对齐操作进行细粒度特征聚合,而HVR-Net(Han等人2020)集成了视频内和视频间的proposals关系,以进一步改进。此外,MBMBA(Sun et al. 2021)通过引入内存库,扩大了参考特征集。QueryProp(He et al. 2022)注意到视频对象检测器的高计算成本,并试图通过一个轻量级的查询传播模块来加快这个过程。除了基于注意力的方法外,D&T(费希滕霍弗、Pinz和齐瑟曼2017)还尝试通过构建不同帧特征的相关图来以跟踪的方式求解视频目标检测问题。虽然这些方法提高了检测的精度,但它们大多是基于两阶段的检测器,因此其推理速度相对较慢。
在相关的工作中,一些两级检测器已经拥有比本文方法不弱的精度,但速度较慢。本论文尝试在一级检测器中实现视频目标检测。
相关二级检测器可以查阅 https://www.cnblogs.com/mcgl/p/13993171.html

3、Methodology

考虑到视频的特点(各种退化与丰富的时间信息),如何从其他帧中为目标帧(关键帧)寻找支持性信息,对提高视频目标检测的准确性起着关键作用。随着最近的尝试(Deng等2019年;Cen等2020年;Wu等2019年;He等2022年)准确性的显著提高,证实了时间聚合对问题的重要性。然而,现有的方法大多是基于双阶段的技术。如前所述,它们的主要缺点是相对于单级方法,速度相对较慢。为了减轻这一限制,我们将区域/特征选择放在单级探测器的预测头之后。在本节中,我们选择YOLOX作为基础来展示我们的主要主张。我们提出的框架如图3所示。
imagenet vid,# 目标检测,论文阅读,目标检测,人工智能

让我们回顾一下传统的两阶段管道: 1)首先将大量的候选区域“选择”作为提案;2)确定每个提案是否是一个对象,以及它属于哪个类。计算瓶颈主要来自于处理大量的低置信度候选区域。从图3中可以看出,我们的管道也包含两个阶段。不同的是,它的第一阶段是预测(丢弃大量低置信度的区域),而第二阶段可以看作是区域级的细化(利用聚合利用其他帧)。根据这一原理,我们的设计可以同时受益于一级探测器的效率和从时间聚合中获得的精度。值得强调的是,设计上的微小差异导致了性能上的巨大差异。该策略可以推广到许多基础检测器,如FCOS(Tian等人2019年)和ppyoloe(Xu等人2022年)。
所设计的方法基于一级检测器的分类和预测结果进行二次优化,形成了实质上的二阶段检测。但可以受益于一阶段检测器的精度提升,并推广到其它一阶段检测器中。

Our Design

从人类可能的角度来看,识别过程将首先将时间上的相关实例联系起来,并确定它们属于哪个类别,直到收集到足够自信的线索。然后,这些结果可以被广播到不太自信的案例中。多头注意机制作为Transformers的关键部分,似乎很好地适合这种情况,从而提高了远程建模的能力。给定一个序列Z,查询、键和值矩阵分别标记为Q、K和V。自我注意程度可以表示为以下公式,其中,d是Q(也是K)中每个特征的维数。
SA ⁡ ( Z ) = softmax ⁡ ( Q K T / d ) V , (1) \operatorname{SA}(Z)=\operatorname{softmax}\left(QK^T/\sqrt{d}\right)V ,\quad\text{(1)} SA(Z)=softmax(QKT/d )V,(1)

将m个自我注意力并行放置,通过简单地将它们连接在一起,可以实现多头注意力机制:
M S A ( Z ) = c o n c a t ( S A 1 ( Z ) , S A 2 ( Z ) , . . . , S A m ( Z ) ) \mathrm{MSA}(Z)=\mathrm{concat}\left(\mathrm{SA}_1(Z),\mathrm{SA}_2(Z),...,\mathrm{SA}_m(Z)\right) MSA(Z)=concat(SA1(Z),SA2(Z),...,SAm(Z))

现代基于两阶段的视频对象探测器通常通过RPN获得特征聚合的候选区域(Ren et al. 2015)。作为代表,RelationNet(Hu et al. 2018)首先通过将一系列proposals作为输入,引入了上述对静止目标检测任务的多头注意。roi池或roi对齐操作应用于这些proposals,以提取区域级特征。然而,单级探测器可以直接从特征图中进行密集的预测。简单地将区域级的特征聚合转移到一级探测器的整个特征图上,就会导致密集的计算成本。为了解决这个问题,我们提出了一种有效的策略来选择适合多头注意的特征。

FSM: Feature Selection Module

由于大多数预测结果的置信度较低,因此单级探测器的检测头是从特征图中选择(高质量)候选对象的一个自然和合理的选择。在RPN的过程之后,我们首先根据置信度得分挑选出前k(例如,750个)的预测然后,在非最大抑制(NMS)之后,选择一个固定数量的预测a(例如,一个a= 30),以减少冗余。这些预测的特征将被收集起来,以供进一步细化。在实践中,我们发现,直接将收集到的特征聚集在分类分支中,并反向传播聚集后的特征的分类损失,会导致训练不稳定。由于特征聚合模块的权值是随机初始化的,所以从一开始就对所有网络进行微调将会污染预先训练好的权值。为了解决上述问题,我们除了检测头的线性投影层外,还固定了基础检测器的权重。我们进一步将两个3×3卷积(Conv)层插入模型颈部作为一个新的分支,称为视频对象分类分支,它生成用于聚合的特征。然后,我们将从视频和回归分支中收集到的特征输入到我们的特征聚合模块中

1、根据置信度得分挑选出前k个结果,然后在nms操作后得到a个预测结果
2、指出基于新的网络模型直接进行训练会污染预训练的目标检测器参数,故要冻结
3、设计了一个conv3->conv3的视频对象分类分支,用于进行特征聚合

FAM: Feature Aggregation Module

现在我们进入到连接相关roi的步骤。设F = {C1、C2、…,Cf;R1,R2,…,Rf }表示FSM选择的特征集,其中Ci与Ri分别表示视频分类和回归分支的第i帧的特征,f为相关帧数。广义余弦相似度可以说是计算特征之间相似度或注意权重最广泛使用的度量。简单地引用余弦相似度就会发现与目标最相似的特征。然而,当目标出现一定退化时,使用余弦相似度的参考方案很可能出现同样的问题。我们把这种现象命名为同质性问题。

首先,让我们回顾一下我们的方法中原始的QK方式。与(Vaswani et al. 2017)类似,查询、键和值矩阵被构建并输入多头注意力。例如,Qc和Qr分别是通过将所有相关帧proposals的分类分支和回归分支的特征叠加而形成的,其中Qc为分类结果的聚合,Qr为回归结果的聚合。并对Qc与Qr分别执行attention操作,得到Ac和Ar.

为了克服同质性问题,我们进一步考虑了来自原始检测器的预测置信度,记为P={P1,P2,…,Pf},每个Pi包含两个分数,即来自原始分类和回归头的分类得分和IoU得分。为了将这些分数拟合到注意力权重中,我们建立了两个矩阵,Sr(iou得分),Sc(类别的分),重新n次构成二维矩阵,使其与Ac|Ar具有相同的维度。因此,对分类和回归分支的自我注意的最终结果如下:
S A c ( C ) = s o f t m a x ( S c ∘ A c ) V c , S A r ( R ) = s o f t m a x ( S r ∘ A r ) V c , ( 3 ) \begin{array}{l}\mathrm{SA}_{\mathrm{c}}(\mathcal{C})=\mathrm{softmax}\left(S_{c}\circ A_{c}\right)V_{c},\\\mathrm{SA}_{\mathrm{r}}(\mathcal{R})=\mathrm{softmax}\left(S_{r}\circ A_{r}\right)V_{c},\end{array}\quad(3) SAc(C)=softmax(ScAc)Vc,SAr(R)=softmax(SrAr)Vc,(3)
其中,◦代表矩阵的点乘。通过这个操作,自我注意不仅考虑了查询和关键项之间的相似性,而且还意识到键的质量。请注意,由于主要目的是细化分类,所以 S A c ( C ) SA_c (C) SAc(C) S A r ( R ) SA_r (R) SAr(R)共享相同的值矩阵Vc。我们的实验证明,用等式取代原来的QK方式(称为亲和方式)在多头注意中可以显著提高视频目标检测器的性能。此外,我们将Vc与等式(3)的输出连接起来为了更好地保存初始表示法,可以通过以下公式表示。位置信息没有嵌入,因为在长时间范围内的位置信息是没有用的。
S A ( F ) = c o n c a t ( ( S A c ( C ) + S A r ( R ) , V c ) . ( 4 ) \mathrm{SA}(\mathcal{F})=\mathrm{concat}((\mathrm{SA}_c(\mathcal{C})+\mathrm{SA}_\mathrm{r}(\mathcal{R}),V_c).\quad(4) SA(F)=concat((SAc(C)+SAr(R),Vc).(4)

此外,考虑到softmax的特性,一小部分参考可能持有很大部分的权重。换句话说,它经常忽略了低权重的引用,这限制了可能的后续使用的参考特性的多样性。为了避免这种风险,我们引入了参考特征上的平均池化(A.P.)。具体地说,我们选择所有相似性得分高于阈值τ的目标,并将平均池应用于这些目标。请注意,这项工作中的相似性是通过N(Vc)N(Vc)T来计算的。算符N(·)是指层的归一化,它保证了层的值在一定的范围内,从而消除了尺度差异的影响。然后将平均合并特征和关键特征输入一个线性投影层进行最终分类。该过程如图4所示。
imagenet vid,# 目标检测,论文阅读,目标检测,人工智能

4、Experimental Validation

4.1 Implementation Details

与之前的工作类似,我们也从YOLOX提供的COCO预训练过的权重中初始化了我们的基本检测器。我们将Imagenet VID和ImageNet DET中的视频与我们的训练数据相同的类相结合。具体来说,ImageNet VID包含3,862个用于训练的视频和555个用于验证的视频。ImageNet VID数据集中有30个类别,即ImageNet DET 200个基本类别的子集(Russakovsky等,2015)。考虑到视频帧的冗余性,我们在VID训练集中随机采样1/10帧,而不是使用所有的帧。基础探测器在2个Gpu上训练7个epoch,批大小为16

在学习速率方面,我们采用YOLOX中使用的余弦学习速率计划,以一个时期进行预热,并禁用最近两个epoch的强数据增强。当将特征聚合模块集成到基本检测器中时,我们在一个2080Ti GPU上对它们进行了150K迭代的微调,批处理大小为16。此外,我们对前15K次迭代使用热身,对其余的迭代使用余弦学习率计划只对YOLOX预测头部的线性投影层、新添加的视频对象分类分支和多头注意力进行了微调对于特征聚合模块的训练,帧数f设置为16,粗略特征选择的NMS阈值设置为0.75。在生成最终的检测盒时,我们可以将NMS的阈值设置为0.5,以保持更多的优质结果。

在训练阶段,图像被随机地从352×352调整到672×672,step为32。在测试阶段,图像的大小被均匀地调整到576×576。AP50和推理速度分别是反映其在准确性和效率方面的性能的两个指标。关于推理速度,除非另有说明,我们在2080Ti GPU上测试了所有模型的fp16精度。

4.2 Ablation Study

On the reference frame sampling strategy. 研究帧采样策略来平衡精度和帧效率是视频目标检测器的关键。在之前的基于两阶段的方法中,已经讨论了几种全局和局部抽样方案(Wu等,2019;Gong等,2021;Chen等,2020)。对于全局采样方案,从整个视频中随机选择fg帧。对于局部采样,采用了在关键帧周围的fl连续帧。为了说明不同抽样策略的影响,我们改变了全局和局部抽样中参考系的数量。数值结果见表1。仅使用3个全局参考系的性能已经优于使用39个局部参考系的性能,这证实了(Wu et al. 2019;Gong等人,2021年)中给出的证据。作为一种权衡,我们根据表1默认采用fg = 31的全局抽样策略。
imagenet vid,# 目标检测,论文阅读,目标检测,人工智能

1、对于训练视频的序列采样,全局随机抽帧策略性能较好。但该策略不能用于过长的视频。

2、采样的训练序列长度需要综合性能和效果,序列在进行attention时计算复杂度是 O ( N 2 ) O(N^2) O(N2)

On the number of proposals in a single frame. 在这个实验中,我们将FSM中每一帧a的最自信的提案的数量从10调整到100,以了解其对性能的影响。如表2所示,随着a的增加,精度不断提高并达到饱和,直到达到75。由于自我注意的复杂性是关于输入提案量的O(n2),每帧涉及太多的提案将大大增加时间成本。作为一种权衡,我们采用了一个a = 30,它远小于基于两阶段的RDN方法中使用了75个proposals(Deng等人,2019年)
imagenet vid,# 目标检测,论文阅读,目标检测,人工智能

随着一阶段预测器自信结果数的增强,性能逐渐饱和。这是可能是proposal数增加到一定程度后已经完全覆盖了GT

On the threshold in average pooing of reference features. 在这里,我们测试了不同的阈值对平均池化对参考特征的影响。表3列出了数值结果。当所有的特性都涉及到平均池化时,即τ=0,AP50仅为73.1%。提高到更高的阈值会导致更好的性能。当τ下降在[0.75,0.85]时,精度保持稳定在高至77.3%。但是,当τ = 1时,平均池化相当于仅复制SA (F),其准确率下降到76.9%。动态确定不同情况下的阈值是需要的,并作为我们未来的工作。对于其余的实验,我们采用τ = 0.75作为默认阈值。

在AP模块中,softmax对其它特征抑制过多,基于阈值的动态选择可以提升ap

imagenet vid,# 目标检测,论文阅读,目标检测,人工智能

On the effectiveness of FAM. 来验证亲和性方式(A.M.)的有效性和参考特征上的平均池化(A.P.),我们评估有和没有这些模块的性能。表4中的结果显示,这些设计都可以帮助特征聚合从单阶段检测器中捕获更好的语义表示。与YOLOX-S(69.5% AP50)相比,仅配备AM的YOLOV-S的准确率提高了7.4%。同时为YOLOV-S配备了这两种设备在A.M,和A.P.(完整的YOLOVS),性能达到77.3%,与YOLOX-S比较仅约2 ms时间成本.

在AM模块中主要实现proposal在时序中的相互增强,故该模块对于性能提升极为中,达到了7%的涨点

imagenet vid,# 目标检测,论文阅读,目标检测,人工智能

此外,我们还将我们的设计插入到YOLOX-L和YOLOX-X中。表5显示了详细的比较。在微调我们的版本时,指示使用强增强(如MixUp(Zhang et al. 2018a)和mosaic(博奇科夫斯基、王和廖2020))。在AP50中,我们的YOLOV始终优于相应的基线,超过7%。
imagenet vid,# 目标检测,论文阅读,目标检测,人工智能

此外,我们还提供了两种案例来直观地展示我们的FAM的优越性。它们是罕见姿态的狮子案例和运动模糊的狐狸案例,如图5所示。在不丧失一般性的情况下,列出了不同特征选择模式的前4个参考方案,包括余弦相似度、多头注意的QK方式和我们的亲和方式。如前所分析的,余弦方式选择与关键proposals最相似,但与关键方案相同的退化问题。虽然QK方式缓解了这一问题,但它明显不如亲和方式。通过引入置信度评分作为指导,我们的方法选择了更好的proposals,并进一步提高了检测精度。
imagenet vid,# 目标检测,论文阅读,目标检测,人工智能

4.3 Comparison with State-of-the-art Methods

表6总结了相关方法的详细性能,包括FGFA(Zhu等2017a)、SELSA(吴等2019)、RDN(邓等2019)、MEGA(陈等2020)、TROIA(Gong等2021)、MAMBA(Sun等人,2021)、HVR(Han等人2020年)、TransVOD(He等人2021年)和QueryProp(He等人2022年)。我们的方法可以达到85.5%的AP50,每帧21.1 ms。在最近的后处理方法REPP(Sabater、蒙特萨诺和穆里洛2020)的帮助下,它达到了87.5%的AP50,花费了额外的6个ms。在推理效率方面,我们的方法比其他方法要快得多。为了表明改进不是纯粹是从更强的骨干网络,我们还报告了使用ResNet50的速度和准确性。

这里对比的模型并非sota效果,某些二阶段检测器已经在ImageNet VID数据中达到了85.5%的相比指标。

imagenet vid,# 目标检测,论文阅读,目标检测,人工智能

具体来说,在表6的上半部分中,我们报告了没有任何后处理方法的性能。YOLOV在检测精度和推理效率方面都具有显著的领先优势。为了公平比较,表6中列出的模型除了MAMBA和QueryProp2外,列出的所有模型都在相同的硬件环境下进行了测试。表6的下面的部分报告了我们的YOLOV和其他经过后处理的SOTA模型的结果。在一个i7-8700K的CPU上测试了后处理的时间成本。

4.4 Application to Other Base Detectors

为了验证该策略的泛化能力,我们还在其他广泛使用的单级检测器上进行了尝试,包括ppyoloe(Xu等,2022年)和FCOS(Tian等,2019年)。特别是对于ppyoloe,它在不同的FPN水平上有不同的通道数。为了实现多尺度特征聚合,我们将不同尺度的检测头的信道数减少为所有级别中最小的。而对于FCOS,主干是ResNet-50(He等人,2016年)。FPN由原始架构中的五个级别组成,用于处理具有大图像大小的图像(例如,1333×800)。为了匹配ImageNet VID的情况,我们保持了三个FPN水平,最大的降采样率为32。对于训练过程和其他超参数设置,我们只需保持它们与YOLOX中的那些相同。表7显示,我们的策略可以在AP50方面持续提高5%以上。值得注意的是,为不同的基底探测器寻找更合适的超参数可以获得更好的性能。
针对于ppyoloe与fcos的涨点只有5%~6%,而对yolox有7&-8%,这是由于FSM是针对yolox输出的特征层数量设计的,所有适配性修改后涨点能力变弱/font>
imagenet vid,# 目标检测,论文阅读,目标检测,人工智能

5、Conclusion

在本文中,我们开发了一种实用的视频对象检测器。为了提高检测精度,设计了一个特征聚合模块来聚合时间信息。为了节省计算资源,不同于现有的两阶段检测器,我们提出将区域选择放在单阶段预测之后。这种细微的变化使我们的探测器的效率显著提高。实验和消融研究已经进行来验证我们的策略的有效性,它超过了以前的方案。其核心思想简单而通用,有可能激发进一步的研究工作,并拓宽与视频目标检测相关的适用场景文章来源地址https://www.toymoban.com/news/detail-790446.html

到了这里,关于论文阅读:YOLOV: Making Still Image Object Detectors Great at Video Object Detection的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • 【目标检测论文阅读笔记】FE-YOLOv5: Feature enhancement network based on YOLOv5 for small object detection

             由于其固有的特性, 小目标在多次下采样后的特征表示较弱 ,甚至在背景中消失 。 FPN简单的特征拼接  没有充分利用多尺度信息 , 在信息传递中引入了不相关的上下文 ,进一步降低了小物体的检测性能 。为了解决上述问题,我们提出了简单但有效的 FE-YOLO

    2024年02月07日
    浏览(51)
  • 【视频异常检测】Self-Distilled Masked Auto-Encoders are Efficient Video Anomaly Detectors论文阅读

    中文标题:自蒸馏掩蔽自动编码器是有效的视频异常检测器 文章信息: 发表于:CVPR 2024 原文链接:https://arxiv.org/abs/2306.12041 源代码:https://github.com/ristea/aed-mae 我们提出了一种基于轻量级掩码自动编码器(AE)应用于视频帧级别的高效异常事件检测模型。我们提出的模型的新

    2024年03月28日
    浏览(47)
  • 动态SLAM论文(3) — Detect-SLAM: Making Object Detection and SLAM Mutually Beneficial

    目录 1 Introduction 2 Related Work 3 Detect-SLAM 3.1 移动物体去除 3.2 Mapping Objects 3.3 增强SLAM检测器 4 实验 4.1 动态环境下的鲁棒SLAM 4.2. 提升检测性能 5 结论 Abstract: 近年来,在SLAM和目标检测方面取得了显著进展,但仍存在一系列挑战,例如在动态环境中进行SLAM和在复杂环境中检测

    2024年02月12日
    浏览(39)
  • 论文阅读:Making Large Language Models A Better Foundation For Dense Retrieval

    论文链接 密集检索需要学习区分性文本嵌入来表示查询和文档之间的语义关系。考虑到大型语言模型在语义理解方面的强大能力,它可能受益于大型语言模型的使用。然而,LLM是由文本生成任务预先训练的,其工作模式与将文本表示为嵌入完全不同。因此,必须研究如何正确

    2024年01月21日
    浏览(61)
  • Making Large Language Models Perform Better in Knowledge Graph Completion论文阅读

    原文链接: Making Large Language Models Perform Better in Knowledge Graph Completion 基于大语言模型(LLM)的知识图补全(KGC) 旨在利用 LLM 预测知识图谱中缺失的三元组 ,并丰富知识图谱,使其成为更好的网络基础设施,这可以使许多基于网络的自动化服务受益。然而,基于LLM的KGC研究有

    2024年01月23日
    浏览(48)
  • 【论文阅读】CubeSLAM: Monocular 3D Object SLAM

    这一部分是论文中最难理解的一章,作者的主要想法,是利用2d图像来生成3d的目标包围框(bounding box),一方面这个思路本身就不是很好懂,另一方面,作者写这一章还是用的倒叙,显得更难理解了。 3d包围框的定义 对于本文的3d包围框,需要使用九个量来定义,可以分为三

    2024年02月07日
    浏览(45)
  • 论文阅读——Loss odyssey in medical image segmentation

    Loss odyssey in medical image segmentation github:https://github.com/JunMa11/SegLossOdyssey 这篇文章回顾了医学图像分割中的20种不同的损失函数,旨在回答:对于医学图像分割任务,我们应该选择哪种损失函数? 首先是一张各类分割函数的图谱: 介绍函数之前先定义字母符号的含义: , 分别

    2024年02月04日
    浏览(50)
  • 论文阅读《Efficient and Explicit Modelling of Image Hierarchies for Image Restoration》

    论文地址:https://openaccess.thecvf.com/content/CVPR2023/papers/Li_Efficient_and_Explicit_Modelling_of_Image_Hierarchies_for_Image_Restoration_CVPR_2023_paper.pdf 源码地址:https://github.com/ofsoundof/GRL-Image-Restoration   图像复原任务旨在从低分辨率的图像(模糊,子采样,噪声污染,JPEG压缩)中恢复高质量的图

    2024年02月03日
    浏览(56)
  • 《Masked Image Training for Generalizable Deep Image Denoising》——CVPR23论文阅读笔记

    Project page: https://github.com/haoyuc/MaskedDenoising 前提:在捕获和存储图像时,设备不可避免地会引入噪声。减少这种噪声是一项关键任务,称为图像去噪。深度学习已经成为图像去噪的事实方法,尤其是随着基于Transformer的模型的出现,这些模型在各种图像任务上都取得了显著的最

    2024年03月15日
    浏览(70)
  • END-TO-END OPTIMIZED IMAGE COMPRESSION论文阅读

    END-TO-END OPTIMIZED IMAGE COMPRESSION 单词 image compression 图像压缩 quantizer 量化器 rate–distortion performance率失真性能 a variant of 什么什么的一个变体 construct 构造 entropy 熵 discrete value 离散值 摘要: We describe an image compression method, consisting of a nonlinear analysis transformation, a uniform quantizer,

    2024年02月12日
    浏览(54)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包