Center-based 3D Object Detection and Tracking(基于中心的3D目标检测和跟踪 / CenterPoint)论文笔记

这篇具有很好参考价值的文章主要介绍了Center-based 3D Object Detection and Tracking(基于中心的3D目标检测和跟踪 / CenterPoint)论文笔记。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

原文链接:https://arxiv.org/pdf/2006.11275.pdf

1 引言

        CenterPoint先使用基于激光雷达的主干网络如VoxelNet或PointPillars,压缩为BEV后,使用基于图像的关键点检测器寻找物体中心。然后对每个物体中心回归尺寸、朝向和速度。然后,第二阶段细化物体位置,提取估计的3D边界框每个面中心特征。

        基于中心点的物体表达可学习到物体的旋转不变性,简化了跟踪任务,且使得两阶段检测更快,能达到近似实时的效果。

3 准备知识

        2D CenterNet将目标检测重述为关键点检测。输入图像,为个类别输出热图,其局部极大值点代表了被检测物体的中心。然后为所有类别生成公共的尺寸图以获得2D边界框。对每个被检测物体,尺寸图在中心位置存储了其高度和宽度。该网络使用全卷积图像主干和密集预测头。

        训练时,为每个类别预测 在标注物体中心带有高斯核 的热图,并在标注边界框的中心处回归尺寸。为了补偿主干网络步长引起的量化误差,也回归了局部偏移量。

        测试阶段,热图局部峰值处物体的置信度与该峰值成正比。从回归图(尺寸图)中检索峰值对应的所有回归值,并应用非最大抑制(NMS)。

4 CenterPoint

        网络结构如下图所示。

Center-based 3D Object Detection and Tracking(基于中心的3D目标检测和跟踪 / CenterPoint)论文笔记

        设是3D主干网络输出的2D BEV特征图,则第一阶段是预测与类别有关的热图、物体尺寸、子体素位置细化、旋转和速度。

        中心热图头:使用focal损失。产生通道的热图,每个通道表示一个类别。目标是在 标注边界框的3D中心到BEV的投影处 产生2D高斯,高斯半径为,其中为允许的最小高斯半径,是CornerNet中定义的半径函数。这样避免了监督的稀疏性。

        回归头:在每个中心点特征处回归子体素位置细化,离地高度,3D尺寸和朝向角。子体素位置细化用于减小体素化和主干网络的步长带来的量化误差。训练时,以L1回归损失在真实物体中心进行监督。回归目标为对数值,以更容易处理不同尺寸的边界框。在推断时,提取密集回归图中物体峰值位置的属性。

        速度头和跟踪:为每个物体回归速度,需要当前帧的特征图和上一帧的特征图,通过物体位置差来估计。使用L1损失在当前帧真实物体位置进行监督。

        推断时,使用这个速度值贪心地关联当前帧和上一帧的被检测物体。即将当前帧物体中心根据其速度投影回上一帧,然后使用最近点匹配方法。对未匹配的物体保留一定帧数,并用最后已知的速度估计更新位置。

        由于所有物体参数均由物体中心特征推断,可能缺少精确定位所需的信息。例如传感器只能看到物体的一个表面而非中心。因此在细化阶段(第二阶段)使用轻型点特征提取器。

4.1 两阶段CenterPoint

        使用CenterPoint作为第一阶段。

        第二阶段从主干输出提取额外的点特征。即从预测的边界框每个表面中心提取一个点特征,但由于BEV下顶面、底面和物体中心重合,故仅考虑4个侧面中心点和物体中心点。使用双线性插值从主干输出中提取特征,拼接后通过MLP,预测类别无关的置信度分数并细化边界框。

        置信度分数目标为,其中是第个提案框和真实框的3D IoU。使用二值交叉熵损失监督训练。推断时,将第一阶段预测的类别置信度和上述置信度分数进行几何平均:

作为最终预测置信度。

        边界框回归是在第一阶段边界框的基础上进行的。使用L1损失训练。

        两阶段CenterPoint简化和加速了以前的两阶段3D检测器,因为后者使用了昂贵的基于PointNet的特征提取器和RoI对齐操作。

4.2 网络结构

        第一阶段所有输出共享卷积+BN+ReLU的结构,然后各自再通过2层带BN和ReLU的卷积。

        第二阶段所有输出共享带BN、ReLU和Dropout的2层MLP,然后各自通过3层全连接层。

5 实验

        训练第二阶段时,随机采样1:1的正负提案框(若一个提案框与真实框的IoU大于阈值,则为正提案框)。

        测试时,在非最大抑制后的前个提案框上进行第二阶段的细化。

5.1 主要结果

        3D检测:在所有类别物体上的检测精度均有提升,特别是在小物体和极端长宽比的物体上。

        3D跟踪:精度相比基于卡尔曼滤波器的方法有提升,且无需运动模型;无隐藏状态的计算,仅为最近邻匹配问题,耗时可忽略。

5.2 消融研究

        锚框vs中心:将基于锚框的方法改为基于中心的方法有性能提升。后者可更精确检测严重旋转或偏离平均尺寸的物体。

        一阶段vs二阶段:第二阶段以小计算开销换来了大性能提升。与RoI对齐操作相比,本文的方法有相近的性能,但更快且更简单。

        体素量化限制了对行人的检测精度提升。

        在低分辨率激光雷达点云中,第二阶段不会带来提升。

        不同特征成分的影响:本文第二阶段只使用BEV特征细化边界框。

        如果结合以下方法提取的体素特征,只有很小的性能提升,但耗时增加。

  • 体素set abstraction(VSA):扩展PointNet++中的set abstraction,聚合给定半径内体素的特征。
  • 径向基函数(RBF)插值:使用径向基函数,从3个最近的非空3D特征网格聚合网格特征。

附录

A.跟踪算法

Center-based 3D Object Detection and Tracking(基于中心的3D目标检测和跟踪 / CenterPoint)论文笔记

B.实施细节

        使用沿或轴翻转、随机缩放、随机旋转、复制粘贴数据增广。 文章来源地址https://www.toymoban.com/news/detail-483463.html

到了这里,关于Center-based 3D Object Detection and Tracking(基于中心的3D目标检测和跟踪 / CenterPoint)论文笔记的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • Multi-Modal 3D Object Detection in Long Range and Low-Resolution Conditions of Sensors

    多模态长距离低分辨率传感器条件下的3D物体检测 慕尼黑工业大学计算机、信息与技术学院 - 信息学 随着自动驾驶车辆和智能交通系统的兴起,强大的3D物体检测变得至关重要。这些系统通常面临由于远距离和遮挡的物体,或低分辨率传感器导致的数据稀疏性的挑战,这可能

    2024年02月21日
    浏览(30)
  • 深度学习论文分享(一)ByteTrackV2: 2D and 3D Multi-Object T racking by Associating Every Detection Box

    论文原文:https://arxiv.org/pdf/2303.15334.pdf 论文代码:https://github.com/ifzhang/ByteTrack-V2 Title:ByteTrackV2: 2D and 3D Multi-Object Tracking by Associating Every Detection Box Authors:Yifu Zhang, Xinggang Wang, Xiaoqing Y e, Wei Zhang, Jincheng Lu, Xiao T an, Errui Ding, Peize Sun, Jingdong Wang 在此仅做翻译(经过个人调整,有

    2024年02月05日
    浏览(31)
  • DSGN: Deep Stereo Geometry Network for 3D Object Detection---基于双目视觉的3D目标检测(1)

    为了弥合2D图像和3D空间之间的差距,在平面扫描体中建立立体对应关系,然后将其转换为3DGV(3D geometric volume),以便能够对3D几何体和语义线索进行编码,并能在世界坐标系中进行目标检测。 设计了一条端到端的pipeline,用于提取像素级特征以进行立体匹配,并提取高级特

    2024年02月12日
    浏览(28)
  • 【论文笔记】An End-to-End Framework of Road User Detection, Tracking, and Prediction from Monocular Images

    原文链接:https://arxiv.org/abs/2308.05026 目前的轨迹预测方法多基于道路使用者的真实信息,但在实际自动驾驶系统中这些信息是通过检测和跟踪模块得到的,不可避免的存在噪声。本文将感知模块与轨迹预测整合,进行端到端的检测、跟踪和轨迹预测。 本文感知模块使用单目图

    2024年04月28日
    浏览(26)
  • 3D Object Detection简单介绍

    3D Object Detection 是计算机视觉领域中的一项重要任务,它的目标是在三维点云数据中检测出场景中的物体,并估计它们的位置、姿态、大小等信息。在本教程中,我们将介绍 3D Object Detection 的基本原理、常用的数据集、算法和工具,以及如何使用它们进行目标检测。 3D Object

    2024年02月08日
    浏览(25)
  • FIT5225 Creating and Deploying an Image Object Detection

    FIT5225 2024 SM  CloudDetect: Creating and Deploying an Image Object Detection Web Service within a Containerised Environment in Clouds FIT5225 tutor  wechat: cstutorcs This project aims to build a web-based system that we callCloudDetect. It will allow end-users to send an image to a web service hosted by Docker containers and receive a list of objects de

    2024年04月15日
    浏览(26)
  • Channel-separation-based Network for Object Detection under Foggy Conditions

    现存的一些方法尝试恢复高质量图像,但这会增加网络复杂性并且丢失图像的潜在信息。在这项研究中,一个基于通道分离的检测网络被提出用来保存潜在信息。特别地,雾过滤器用于在图像处理期间执行修剪,以保持图像的潜在信息。通过把深层特征提取替换为一个即插即

    2024年01月18日
    浏览(23)
  • 论文阅读<Contrastive Learning-based Robust Object Detection under Smoky Conditions>

    论文链接:https://openaccess.thecvf.com/content/CVPR2022W/UG2/papers/Wu_Contrastive_Learning-Based_Robust_Object_Detection_Under_Smoky_Conditions_CVPRW_2022_paper.pdf         目标检测是指有效地找出图像中感兴趣的目标,然后准确地确定它们的类别和位置。近年来,许多优秀的方法被开发出来,以提供强

    2024年02月04日
    浏览(30)
  • 论文阅读 (88):Adversarial Examples for Semantic Segmentation and Object Detection

    题目 :用于语义分割和目标检测的对抗样本 核心点 :将对抗性样本的概念扩展到语义分割和对象检测,并提出 稠密对抗生成算法 (Dense adversary generation, DAG)。 引用 : 令 X mathbf{X} X 表示包含 N N N 个识别目标 T = { t 1 , t 2 , … , t N } mathcal{T}={t_1,t_2,dots,t_N} T = { t 1 ​ , t 2 ​

    2024年02月01日
    浏览(45)
  • Transaction-based classification and detection approach for Ethereum smart contract

    摘要 :区块链技术为各行业带来创新。以太坊是目前第二大区块链平台,也是最大的智能合约区块链平台。智能合约可以简化和加速各种应用程序的开发,但也带来了一些问题。例如,智能合约被用来实施欺诈,漏洞合约被用来破坏公平性,还有许多重复的合约没有实际目的

    2024年02月06日
    浏览(27)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包