CVPR'23论文一览 | 多模态/3D检测/BEV/跟踪/点云等多个方向!

这篇具有很好参考价值的文章主要介绍了CVPR'23论文一览 | 多模态/3D检测/BEV/跟踪/点云等多个方向!。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

点击下方卡片,关注“自动驾驶之心”公众号

ADAS巨卷干货,即可获取

点击进入→自动驾驶之心【全栈算法】技术交流群

1. 目标跟踪

Referring Multi-Object Tracking

CVPR'23论文一览 | 多模态/3D检测/BEV/跟踪/点云等多个方向!,3d,深度学习,人工智能

研究背景:多目标跟踪(MOT)是指在视频中检测并跟踪多个感兴趣的对象,并为它们分配唯一的ID。现有的MOT方法通常依赖于视觉信息来进行跟踪,但忽略了语言信息的作用。语言信息可以提供更丰富和更具辨识度的语义线索,帮助区分不同的对象和处理遮挡等情况。因此,本文提出了一种新颖且通用的指代理解任务,称为指代多目标跟踪(RMOT)。其核心思想是利用语言表达作为语义提示来指导多目标跟踪的预测。本文提出了一个端到端的RMOT框架,包括三个主要模块:(1)基于Transformer的联合编码器,用于将视频帧和语言表达进行特征融合;(2)基于图卷积网络(GCN)的关系推理模块,用于建模对象之间的空间关系和运动关系;(3)基于匈牙利算法(HA)的匹配策略模块,用于将不同帧中相同ID的对象进行关联。实验效果:本文在两个新构建的数据集上进行了实验,并与当前最先进的MOT方法进行了比较。实验结果表明,RMOT框架在各项评价指标上均显著优于其他方法,并且能够有效地处理复杂场景下的多目标跟踪问题。

VoxelNeXt: Fully Sparse VoxelNet for 3D Object Detection and Tracking

CVPR'23论文一览 | 多模态/3D检测/BEV/跟踪/点云等多个方向!,3d,深度学习,人工智能

它的研究背景是,目前自动驾驶场景的3D检测框架大多依赖于dense head,而3D点云数据本身是稀疏的,这无疑是一种低效和浪费计算量的做法。因此,作者提出了一种纯稀疏的3D检测框架VoxelNeXt。它的核心思想是直接根据稀疏体素特征来预测对象,不再需要稀疏到密集的转换、锚点或中心代理。

在实验方面,VoxelNeXt在nuScenes数据集上取得了更好的速度精度权衡,并且首次展示了完全稀疏的基于体素的表示对于LIDAR 3D对象检测和跟踪的有效性。在nuScenes、Waymo和Argoverse2基准测试中进行了大量实验,验证了该方法的有效性。没有任何花哨的东西,该模型在nuScenes跟踪测试基准测试中超越了所有现有的LIDAR方法。该方法在取得检测速度优势的同时,还能很好地帮助多目标跟踪。VoxelNeXt在nuScenes LIDAR 多目标跟踪榜单上排名第一。

2. 点云相关

ProxyFormer: Proxy Alignment Assisted Point Cloud Completion with Missing Part Sensitive Transformer

CVPR'23论文一览 | 多模态/3D检测/BEV/跟踪/点云等多个方向!,3d,深度学习,人工智能

来看研究背景:点云是一种常用的三维数据表示形式,但由于设备缺陷或视角限制等原因,采集到的点云往往是不完整的。因此,从部分点云恢复完整点云在许多实际任务中具有重要意义,而其中的关键之一在于缺失部分的预测。但是,在现有的点云补全方法中,通常使用编码器-解码器结构来生成完整点云,但这种结构存在以下问题:(1)编码器无法充分捕捉局部特征和全局上下文;(2)解码器无法有效感知缺失部分的位置信息;(3)生成的点云质量受限于采样密度和重建误差。

为了解决上述问题,本文提出了一种新颖的点云补全方法,称为ProxyFormer,它将点云补全分为两个阶段:(1)代理生成阶段,使用一个基于Transformer的编码器来从部分点云中提取局部特征和全局上下文,并生成一组代表完整点云形状和结构的代理;(2)代理对齐阶段,使用一个缺失部分敏感的Transformer来从随机正态分布中转换出合理的位置信息,并使用代理对齐机制来细化缺失代理。这使得预测的点代理更加敏感于缺失部分的特征和位置,并能够适应不同程度和模式的缺失。本文在ShapeNet、Completion3D和KITTI等公开数据集上进行了广泛的实验,并与当前最先进的方法进行了比较。实验结果表明,ProxyFormer在各项评价指标上均取得了优异或接近最优的性能,并且能够生成高质量、高密度、高多样性和高鲁棒性的完整点云。

Point Cloud Forecasting as a Proxy for 4D Occupancy

CVPR'23论文一览 | 多模态/3D检测/BEV/跟踪/点云等多个方向!,3d,深度学习,人工智能

4D占据预测是指在给定当前时刻的三维场景表示(如点云、体素网格等)后,预测未来时刻的三维场景表示。它可以描述场景中物体的运动和变化,对于自动驾驶等应用有着重要的价值。现有的4D占据预测方法大多基于有监督学习,需要大量标注数据或者依赖于传感器内外参数(intrinsics and extrinsics)。然而,在实际场景中,标注数据很难获得,而且传感器参数可能会受到噪声和误差的影响。因此,如何利用无监督学习来提高4D占据预测的性能和鲁棒性,是一个新颖且具有挑战性的问题。

CVPR'23论文一览 | 多模态/3D检测/BEV/跟踪/点云等多个方向!,3d,深度学习,人工智能

本文提出了一种名为PCF(Point Cloud Forecasting)的方法,它包括两个主要步骤:1) 利用一个基于图神经网络(Graph Neural Network)和循环神经网络(Recurrent Neural Network)的编码器-解码器模型,对输入点云进行编码和解码,并输出未来时刻的点云;2) 利用一个基于凸优化(Convex Optimization)和投影算法(Projection Algorithm)的后处理模块,将输出点云转换为四维占据,并与输入点云进行对齐。本文在KITTI数据集上进行了实验,并与其他基准方法进行了比较。实验结果表明,PCF方法可以有效地利用无监督学习来提高4D占据预测的性能,并且在不同噪声水平下都具有较好的鲁棒性。与其他基准方法相比,PCF方法在KITTI数据集上分别提升了9.8%和7.6% 的平均端到端误差(AEE)。

SCPNet: Semantic Scene Completion on Point Cloud

CVPR'23论文一览 | 多模态/3D检测/BEV/跟踪/点云等多个方向!,3d,深度学习,人工智能

由于稀疏和不完整的输入、大量不同尺度的对象以及移动对象固有的标签噪声,训练深度模型进行语义场景完成(SSC)是具有挑战性的。

因此,作者提出了以下三种解决方案:1)重新设计完成子网络。我们设计了一种新颖的完成子网络,它由多个多路径块(MPBs)组成,用于聚合多尺度特征,并且不会产生损失性下采样操作。2)从多帧模型中提取丰富的知识。我们设计了一种新颖的知识蒸馏目标,称为密集到稀疏知识蒸馏(DSKD)。它将多帧教师的密集、基于关系的语义知识转移到单帧学生身上,显著提高了单帧模型的表示学习。3)完成标签纠正。我们提出了一种简单而有效的标签纠正策略,它使用现成的全景分割标签来删除动态对象在完成标签中的痕迹,极大地提高了深度模型的性能,特别是对于那些移动对象。

在实验方面,在两个公共SSC基准测试中进行了广泛实验,即SemanticKITTI和SemanticPOSS。我们的SCPNet在SemanticKITTI语义场景完成挑战中排名第一,并超过了竞争激烈的S3CNet。

3. 多模态感知

Visual Exemplar Driven Task-Prompting for Unified Perception in Autonomous Driving

CVPR'23论文一览 | 多模态/3D检测/BEV/跟踪/点云等多个方向!,3d,深度学习,人工智能

自动驾驶中的统一感知是指同时解决多个感知任务,如目标检测、语义分割、深度估计等。现有的统一感知方法通常使用多任务学习的框架,但存在以下问题:(1)不同任务之间的特征表示可能存在冲突或干扰;(2)不同任务之间的难度和重要性可能不平衡;(3)不同任务之间的数据分布和标注质量可能不一致。研究动机:为了解决上述问题,本文提出了一种有效的多任务框架,称为VE-Prompt,它引入了视觉示例通过任务特定的提示来指导模型学习高质量的任务特定表示。视觉示例是指基于边界框和颜色标记生成的图像片段,它们提供了目标类别的准确视觉外观,并进一步缩小了性能差距。

本文提出了一个端到端的VE-Prompt框架,包括三个主要模块:(1)基于Transformer的编码器,用于将输入图像和视觉示例进行特征融合;(2)基于卷积层的解码器,用于从编码器输出中提取多个感知任务所需的信息双向投影变换是一种能够将图像特征从透视视角(Perspective View)映射到鸟瞰视角(Bird-Eye View)或反之的技术。它通过计算透视视角和鸟瞰视角之间的坐标转换关系,并利用双线性插值(Bilinear Interpolation)来生成新的图像特征。双向投影变换可以保持两种视角之间的空间一致性,并且可以通过反向传播进行优化;(3)基于注意力机制和损失函数的优化模块,用于调节不同任务之间的权重和优先级。实验效果:本文在KITTI数据集上进行了实验,并与当前最先进的统一感知方法进行了比较。实验结果表明,VE-Prompt框架在各项评价指标上均显著优于其他方法,并且能够有效地处理自动驾驶中复杂场景下的多个感知任务。

Hidden Gems: 4D Radar Scene Flow Learning Using Cross-Modal Supervision

CVPR'23论文一览 | 多模态/3D检测/BEV/跟踪/点云等多个方向!,3d,深度学习,人工智能

研究背景:4D雷达场景流是指在连续的两帧雷达点云中,每个点的三维位置和三维速度。它可以描述场景中物体的运动状态,对于自动驾驶等应用有着重要的价值。现有的4D雷达场景流估计方法大多基于手工设计的特征或者有监督学习,需要大量标注数据或者依赖于精确的传感器校准。然而,在实际场景中,标注数据很难获得,而且传感器校准可能会受到噪声和误差的影响。因此,如何利用现代自动驾驶车辆中共同存在的多种传感器(如里程表、激光雷达、相机等)来提供跨模态(cross-modal)的监督信号,从而提高4D雷达场景流估计的性能和鲁棒性,是一个新颖且具有挑战性的问题。本文提出了一种名为CMFlow(Cross-Modal Scene Flow)的方法,它包括两个主要步骤:1) 利用里程表和激光雷达提供刚体运动变换(rigid ego-motion transformation)和运动分割(motion segmentation)作为监督信号,训练一个基于点云卷积神经网络(PointConvNet)的初步场景流估计器;2) 利用相机提供光流(optical flow)作为监督信号,训练一个基于图神经网络(Graph Neural Network)和注意力机制(Attention Mechanism)的后处理模块,对初步场景流进行校正和优化。本文在KITTI数据集上进行了实验,并与其他基准方法进行了比较。实验结果表明,CMFlow方法可以有效地利用跨模态监督信号来提高4D雷达场景流估计的性能,并且在不同噪声水平下都具有较好的鲁棒性。与其他基准方法相比,CMFlow方法在KITTI数据集上分别提升了11.8%和10.7% 的平均端到端误差(AEE)。

MSeg3D: Multi-modal 3D Semantic Segmentation for Autonomous Driving

CVPR'23论文一览 | 多模态/3D检测/BEV/跟踪/点云等多个方向!,3d,深度学习,人工智能

它的研究背景是,LiDAR和摄像头是自动驾驶中可用于3D语义分割的两种模态。流行的仅使用LiDAR的方法由于激光点不足,严重受到小型和远距离物体分割不良的影响,而鲁棒的多模态解决方案尚未被充分探索。

因此,作者提出了一种多模态3D语义分割模型(MSeg3D),它具有联合内部模态特征提取和跨模态特征融合,以减轻模态异构性。MSeg3D中的多模态融合包括基于几何的特征融合GF-Phase、跨模态特征补全和基于语义的特征融合SF-Phase在所有可见点上。多模态数据增强通过对LiDAR点云和多摄像头图像分别应用非对称变换来重新激活,这有助于模型训练具有多样化的增强变换。

在实验方面,MSeg3D在nuScenes、Waymo和SemanticKITTI数据集上取得了最先进的结果。在多摄像头输入故障和多帧点云输入下,MSeg3D仍然表现出鲁棒性,并改善了仅使用LiDAR的基线

4. 3D目标检测

MSMDFusion: Fusing LiDAR and Camera at Multiple Scales with Multi-Depth Seeds for 3D Object Detection

CVPR'23论文一览 | 多模态/3D检测/BEV/跟踪/点云等多个方向!,3d,深度学习,人工智能

自动驾驶系统中,融合激光雷达和相机信息是实现准确和可靠的三维物体检测的关键。这是一个具有挑战性的问题,因为需要将两种不同模态之间的多粒度几何和语义特征进行有效地结合。现有的方法主要通过将二维相机图像中的点提升到三维空间,来探索相机特征的语义密度。然而,这些方法存在两个主要的缺陷:1) 它们忽略了不同尺度下相机特征之间的差异性;2) 它们依赖于固定深度值或者预设锚框(anchor box)来生成候选框(candidate box),这会导致低效率和低精度。本文提出了一种名为MSMDFusion(Multi-Scale Multi-Depth Fusion)的方法,它包括两个主要步骤:1) 利用一个基于卷积神经网络(Convolutional Neural Network)和注意力机制(Attention Mechanism)的多尺度特征提取器(Multi-Scale Feature Extractor),对激光雷达点云和相机图像进行特征提取,并在不同尺度下进行特征融合;2) 利用一个基于多深度种子生成器(Multi-Depth Seed Generator)和候选框生成器(Candidate Box Generator)的多深度种子融合模块(Multi-Depth Seed Fusion Module),根据不同类别和不同深度范围生成多深度种子,并利用激光雷达点云对其进行调整和筛选,最后输出候选框。本文在KITTI数据集上进行了实验,并与其他基准方法进行了比较。实验结果表明,MSMDFusion方法可以有效地利用多尺度多深度种子来融合激光雷达和相机信息,并且在三维物体检测任务上取得了最先进的结果,在KITTI数据集上分别达到了69.1% 的平均精确率(mAP)和71.8% 的标准化检测分数(NDS)。

Benchmarking Robustness of 3D Object Detection to Common Corruptions in Autonomous Driving

CVPR'23论文一览 | 多模态/3D检测/BEV/跟踪/点云等多个方向!,3d,深度学习,人工智能

尽管现有的3D检测器性能优异,但它们缺乏对现实世界中由恶劣天气、传感器噪声等引起的腐败的鲁棒性,引发了对自动驾驶系统安全性和可靠性的担忧。

因此,作者的动机是全面严格地对3D检测器的退化鲁棒性进行基准测试。为此,他们设计了27种考虑现实世界驾驶场景的LiDAR和摄像头输入的常见退化类型。通过在公共数据集上合成这些退化,他们建立了三个退化鲁棒性基准测试——KITTI-C、nuScenes-C和Waymo-C。

在方法方面,作者对24种不同的3D对象检测模型进行了大规模实验,以评估它们的腐败鲁棒性。根据评估结果,他们得出了几个重要的发现,包括:1)运动级别腐败是最具威胁性的,导致所有模型性能显著下降;2)LiDAR-摄像头融合模型表现出更好的鲁棒性;3)仅使用摄像头的模型对图像腐败极其脆弱,显示出LiDAR点云不可或缺。

5. 深度估计

RM-Depth: Unsupervised Learning of Recurrent Monocular Depth in Dynamic Scenes

CVPR'23论文一览 | 多模态/3D检测/BEV/跟踪/点云等多个方向!,3d,深度学习,人工智能

单目深度估计是指从单张图像中推断出场景中每个像素点的距离。它可以为三维重建、导航、增强现实等应用提供重要的信息。现有的无监督单目深度估计方法大多基于视觉几何(visual geometry),利用相邻帧之间的光度一致性(photometric consistency)作为损失函数,从而避免了昂贵的深度标注数据。然而,这些方法有两个主要的局限性:1) 它们不能处理场景中存在移动物体的情况,因为这会导致光度不一致性;2) 它们往往需要增加模型参数来提高精度,但这会增加计算复杂度和内存消耗。本文提出了一种名为RM-Depth(Recurrent Monocular Depth)的方法,它包括两个主要步骤:1) 利用一个基于卷积神经网络(Convolutional Neural Network)和循环神经网络(Recurrent Neural Network)的编码器-解码器模型,对输入图像进行编码和解码,并输出单目深度图;2) 利用一个基于循环调制单元(Recurrent Modulation Unit)和光流估计网络(Optical Flow Estimation Network)的后处理模块,对输出深度图进行自适应和迭代地融合,并输出完整的三维运动场。本文在KITTI数据集上进行了实验,并与其他基准方法进行了比较。实验结果表明,RM-Depth方法可以有效地利用无监督学习来联合预测单目深度和完整的三维运动,并且在存在移动物体或者相机旋转等复杂场景下都具有较好的鲁棒性。与其他基准方法相比,RM-Depth方法在KITTI数据集上分别提升了6.7% 和 5.4% 的平均绝对误差(MAE)

6. BEV相关

Tri-Perspective View for Vision-Based 3D Semantic Occupancy Prediction

CVPR'23论文一览 | 多模态/3D检测/BEV/跟踪/点云等多个方向!,3d,深度学习,人工智能

自动驾驶感知中,视觉为主的方法通常采用鸟瞰图(Bird’s-Eye-View,BEV)来表示三维场景。相比于体素表示(voxel representation),它具有更高的效率,但是它难以用单个平面来描述场景中的细粒度三维结构。为了解决这个问题,本文提出了一种三视角视图(TPV)表示,它除了BEV外,还包括两个垂直于BEV的平面。本文认为每个三维空间中的点都可以通过将其在三个平面上投影后得到的特征相加来建模。本文提出了一个基于变换器(Transformer)的TPV编码器(TPVFormer),它可以将图像特征提升到三维TPV空间,并获得每个点在不同平面上投影后的特征。然后,本文利用一个基于卷积神经网络(Convolutional Neural Network)和双线性插值(Bilinear Interpolation)的TPV解码器(TPVDecoder),将每个点在不同平面上投影后的特征相加,并输出每个点在不同类别上的占据概率。本文在KITTI数据集上进行了实验,并与其他基准方法进行了比较。实验结果表明,TPV方法可以有效地利用三视角视图来描述和预测三维场景中的占据和语义信息,并且在不同分辨率下都具有较好的性能。与其他基准方法相比,TPV方法在KITTI数据集上分别提升了4.5% 和 3.7% 的平均精度(mAP)。

Towards Domain Generalization for Multi-view 3D Object Detection in Bird-Eye-View

CVPR'23论文一览 | 多模态/3D检测/BEV/跟踪/点云等多个方向!,3d,深度学习,人工智能

MV3D-Det是一种利用相机图像来检测三维物体的位置和姿态的技术,它在鸟瞰图(BEV)中展示检测结果,具有低成本和高效率的优点。它在自动驾驶等领域有着广泛的应用。研究动机:现有的MV3D-Det算法大多基于深度学习,需要大量标注数据来训练模型。然而,在实际场景中,输入图像的域(domain)可能与训练数据的域不同,导致模型性能下降。例如,不同季节、天气、光照等因素都会影响图像的域。因此,如何提高MV3D-Det算法在不同域上的泛化能力(domain generalization)是一个重要且具有挑战性的问题。本文提出了一种名为DG-BEV(Domain Generalization for BEV)的方法,它包括两个主要步骤:1) 基于对抗学习和自监督学习,对输入图像进行域无关化处理,消除或减少域间差异;2) 基于多任务学习和注意力机制,对BEV中的特征进行融合和增强,提高检测精度。本文在KITTI数据集上进行了实验,分别使用了两个不同域作为源域和目标域:夏季晴天(Sunny Summer)和冬季阴天(Cloudy Winter)。实验结果表明,DG-BEV方法可以有效地提高MV3D-Det算法在目标域上的性能,并且不损失源域上的性能。与其他基准方法相比,DG-BEV方法在目标域上分别提升了5.0%和6.4%的平均精度(AP),并且在源域上保持了最高水平。

视频课程来了!

自动驾驶之心为大家汇集了毫米波雷达视觉融合、高精地图、BEV感知、传感器标定、传感器部署、自动驾驶协同感知、语义分割、自动驾驶仿真、L4感知、决策规划、轨迹预测等多个方向学习视频,欢迎大家自取(扫码进入学习)

(扫码学习最新视频)

国内首个自动驾驶学习社区

近1000人的交流社区,和20+自动驾驶技术栈学习路线,想要了解更多自动驾驶感知(分类、检测、分割、关键点、车道线、3D目标检测、Occpuancy、多传感器融合、目标跟踪、光流估计、轨迹预测)、自动驾驶定位建图(SLAM、高精地图)、自动驾驶规划控制、领域技术方案、AI模型部署落地实战、行业动态、岗位发布,欢迎扫描下方二维码,加入自动驾驶之心知识星球,这是一个真正有干货的地方,与领域大佬交流入门、学习、工作、跳槽上的各类难题,日常分享论文+代码+视频,期待交流!

自动驾驶之心】全栈技术交流群

自动驾驶之心是首个自动驾驶开发者社区,聚焦目标检测、语义分割、全景分割、实例分割、关键点检测、车道线、目标跟踪、3D目标检测、BEV感知、多传感器融合、SLAM、光流估计、深度估计、轨迹预测、高精地图、NeRF、规划控制、模型部署落地、自动驾驶仿真测试、产品经理、硬件配置、AI求职交流等方向;

添加汽车人助理微信邀请入群

备注:学校/公司+方向+昵称文章来源地址https://www.toymoban.com/news/detail-743062.html

到了这里,关于CVPR'23论文一览 | 多模态/3D检测/BEV/跟踪/点云等多个方向!的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • 消除 BEV 空间中的跨模态冲突,实现 LiDAR 相机 3D 目标检测

    Eliminating Cross-modal Conflicts in BEV Space for LiDAR-Camera 3D Object Detection 近期,3D目标检测器通常利用多传感器数据和在共享的鸟瞰图(BEV)表示空间中统一多模态特征。然而,我们的实证研究发现,以前的方法在生成无跨模态冲突的融合BEV特征方面存在局限性。这些冲突包括由BEV特

    2024年04月15日
    浏览(53)
  • 3D目标检测数据集 KITTI(标签格式解析、3D框可视化、点云转图像、BEV鸟瞰图)

    本文介绍在3D目标检测中,理解和使用KITTI 数据集,包括KITTI 的基本情况、下载数据集、标签格式解析、3D框可视化、点云转图像、画BEV鸟瞰图等,并配有实现代码。 目录  1、KITTI数据集3D框可视化 2、KITTI 3D数据集 3、下载数据集 4、标签格式 5、标定参数解析 6、点云数据--投

    2024年02月08日
    浏览(41)
  • CVPR2023最佳论文候选:3D点云配准新方法

    文章:3D Registration with Maximal Cliques 作者:Xiyu Zhang Jiaqi Yang* Shikun Zhang Yanning Zhang 编辑:点云PCL 代码: https://github.com/zhangxy0517/3D-Registration-with-Maximal-Cliques.git 欢迎各位加入知识星球,获取PDF论文,欢迎转发朋友圈。文章仅做学术分享,如有侵权联系删文。 公众号致力于点云处

    2024年02月08日
    浏览(43)
  • CVPR 2023 | VoxelNeXt实现全稀疏3D检测跟踪,还能结合Seg Anything

    在本文中,研究者提出了一个完全稀疏且以体素为基础的3D物体检测和跟踪框架VoxelNeXt。它采用简单的技术,运行快速,没有太多额外的成本,并且可以在没有NMS后处理的情况下以优雅的方式工作。VoxelNeXt在大规模数据集nuScenes、Waymo和Argoverse2上表现出很好的速度和精度;在

    2024年02月09日
    浏览(46)
  • ​CVPR2023 | MSMDFusion: 激光雷达-相机融合的3D多模态检测新思路(Nuscenes SOTA!)...

    点击下方 卡片 ,关注“ 自动驾驶之心 ”公众号 ADAS巨卷干货,即可获取 点击进入→ 自动驾驶之心【3D目标检测】技术交流群 后台回复 【3D检测综述】 获取最新基于点云/BEV/图像的3D检测综述! 融合激光雷达和相机信息对于在自动驾驶系统中实现准确可靠的3D目标检测至关重

    2023年04月21日
    浏览(50)
  • [论文阅读]PillarNeXt——基于LiDAR点云的3D目标检测网络设计

    PillarNeXt: Rethinking Network Designs for 3D Object Detection in LiDAR Point Clouds 基于LiDAR点云的3D目标检测网络设计 论文网址:PillarNeXt 代码:PillarNeXt 这篇论文\\\"PillarNeXt: Rethinking Network Designs for 3D Object Detection in LiDAR Point Clouds\\\"重新思考了用于激光雷达点云3D目标检测的网络设计。主要的贡献

    2024年02月08日
    浏览(43)
  • [论文阅读]MVX-Net——基于3D目标检测的多模态VoxelNet

    MVX-Net: Multimodal VoxelNet for 3D Object Detection 基于3D目标检测的多模态VoxelNet 论文网址:MVX-Net 这篇论文主要提出了两种多模态融合方法,PointFusion和VoxelFusion,用于将RGB图像特征与点云特征结合,从而提高3D目标检测的性能。论文的主要内容和贡献总结如下: 提出了两种简单有效的多模

    2024年02月07日
    浏览(67)
  • [论文阅读]MVF——基于 LiDAR 点云的 3D 目标检测的端到端多视图融合

    End-to-End Multi-View Fusion for 3D Object Detection in LiDAR Point Clouds 论文网址:MVF 论文代码: 这篇论文提出了一个端到端的多视角融合(Multi-View Fusion, MVF)算法,用于在激光雷达点云中进行3D目标检测。论文的主要贡献有两个: 提出了动态体素化(Dynamic Voxelization)的概念。相比传统的硬体素

    2024年01月23日
    浏览(43)
  • 3D目标识别|SFD|多模态|CVPR2022

    论文标题:Sparse Fuse Dense: Towards High Quality 3D Detection with Depth Completion 论文链接 Code: 还未开源 **动机:**室外点云+图像的方法没有纯点云的方法效果好,主要有两个原因(1)多模态的数据增广不好做(2)因为现在方法大多是从点云找对应的图像融合特征,但是点云能对应上的

    2023年04月14日
    浏览(49)
  • Center-based 3D Object Detection and Tracking(基于中心的3D目标检测和跟踪 / CenterPoint)论文笔记

    原文链接:https://arxiv.org/pdf/2006.11275.pdf         CenterPoint先使用基于激光雷达的主干网络如VoxelNet或PointPillars,压缩为BEV后,使用基于图像的关键点检测器寻找物体中心。然后对每个物体中心回归尺寸、朝向和速度。然后,第二阶段细化物体位置,提取估计的3D边界框每个

    2024年02月09日
    浏览(35)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包