Mapless Online Detection of Dynamic Objects in 3D Lidar解读

这篇具有很好参考价值的文章主要介绍了Mapless Online Detection of Dynamic Objects in 3D Lidar解读。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

Mapless Online Detection of Dynamic Objects in 3D Lidar



前言

最近在做动态点滤除的work,在调研相关的文献,所以打算记录一下自己对相关文献的理解,如果有理解不到位的地方,也请大家不吝指正。

一、摘要

  本文提出了一种无模型、无设置(?)的三维激光雷达数据中动态物体在线检测方法。我们明确补偿了当今3D旋转激光雷达传感器的运动失真。我们的检测方法使用运动补偿的自由空间查询算法,并在点级别上对动态(当前移动)和静态(当前静止)标签进行分类。为了进行定量分析,我们使用CARLA(一种用于自动驾驶研究的开源模拟器),用运动失真的激光雷达数据建立了一个基准。我们还使用Velodyne HDL-64E在驾驶场景中提供了真实数据的定性分析。与现有的无模型3D激光雷达方法相比,我们的方法是独特的,因为它不依赖设置且补偿了点云运动失真

二、方法

Mapless Online Detection of Dynamic Objects in 3D Lidar解读,3d

1.odometry

  即激光雷达里程计,算出当前帧的位姿。

2.点云比较

  当前帧和之前一帧进行比较。当前帧的点转移到世界坐标系下,针对当前帧中的每个点,拟合出其邻域的点张成的平面,然后计算之前一帧当中与该点最近的一个点到该平面的距离。距离超过阈值的认为是潜在的动态点。若当前帧中有些点的邻域点过少,没法计算平面,那么就构建点到点距离,同样的,认为距离超过阈值的是潜在动态点。
  作者特别强调这两帧之间需要有一定的时间间隔(scan gap),以确保动态物体移动的距离够远,能够被检测出来。

3.free space check

  由于之前检测出来的动态点中包含一些假动态点,例如新扫描到的点和之前被遮挡的点,和由于点的稀疏性导致估计出的平面不够好而产生的误判点,因此需要进行free space check。
  该操作是针对当前帧的动态点,寻找之前帧当中扫描到该点的那束激光,然后若之前那束激光穿过了该点成的平面上,则说明该点确实是动态的,若激光束打到了该点成的平面上(freespace border),就认为这个点是静态点,若该点处于激光束打到平面的后面(outside freespace),则该点的状态未知。
  可以看到,流程图当中的free space check包含了Backward和Forward两部分,Backward部分是检查该点是否在之前帧的free space当中,而Forward部分是检查该点是否在之后帧的free space当中。Forward检查的对象是那些在Backward检查时在freespace外(outside freespace)的点,这些点可能是动态的,论文举了一个例子:一辆正驶离激光雷达的汽车,它永远不会出现在之前帧的freespace内部。而在Forward检查时可以将这种情况检测出来。不过论文指出在进行Forward freespace check时,两帧没必要有一定的时间间隔(scan gap),因为远离的对象具有垂直于移动方向的表面几何图形(没理解。。原文: A scan gap is not needed for forward because objects moving away have surface geometry perpendicular to the movement direction)。

3.箱式滤波器

  作者说free space check容易出错,因为激光雷达的分辨率有限(例如远处的free space),我理解是在远处,激光雷达线与线的间隔会很大,导致free space check寻找到的最靠近的激光束其实距离该点也比较远,没法反映该点的真实状况,导致远处会出现一些假的、孤立的动态点。因此作者用一个同或(XNOR)滤波器(Figure 5)把这些点滤除掉
Mapless Online Detection of Dynamic Objects in 3D Lidar解读,3d

4.区域生长

  通常,scan gap不足以使目标完全离开其先前的位置。因此,作者用一种区域生长的方法将动态物体完整地滤除。作者使用Klasing等人提出的三维点云聚类方法[19],一种径向有界最近邻策略逐步将动态点分组成不同物体。作者使用Moosmann等人的迭代点云分割方法来进行区域生长[20],通过测试相邻点是平行还是凸出,物体逐渐生长,直到找不到为止。

总结

  这篇文章讲的方法大致就是这样了,个人总结了下优缺点,优点:freespace check比较好地解决了遮挡区域和新扫描到的区域误判问题;缺点:1.不仅要和之前的帧比较,也要和之后的帧比较,无法实时;2.freespace check的计算量挺大(存疑)。文章来源地址https://www.toymoban.com/news/detail-816178.html

到了这里,关于Mapless Online Detection of Dynamic Objects in 3D Lidar解读的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • 【3D目标检测】PDV(Point Density-Aware Voxels for LiDAR 3D Object Detection)

    首先,本文是 基于点云,并且将点云处理成体素 的3D目标检测网络。 本文的核心概念就是点密度,主要贡献如下: Voxel Point Centroid Localization(体素点质心定位)就是使用非空体素中点计算体素的质心,然后结合质心点的特征得到包含细粒度位置信息的点密度分布,并使用它

    2024年02月10日
    浏览(40)
  • 论文阅读:LiDAR-based curb detection for ground truth annotation in automated driving validation

    目录 概要 Motivation 整体架构流程 技术细节 小结 论文地址: LiDAR-based curb detection for ground truth annotation in automated driving validation | IEEE Conference Publication | IEEE Xplore 路沿检测在自动驾驶中是环境感知的关键,因为它通常界定了可驾驶区域和不可驾驶区域。标注的数据对于开发和验

    2024年02月20日
    浏览(52)
  • 多模态融合2022|TransFusion: Robust LiDAR-Camera Fusion for 3D Object Detection with Transformers

    论文题目:TransFusion: Robust LiDAR-Camera Fusion for 3D Object Detection with Transformers 会议:CVPR2022 单位:香港科技大学,华为 1.摘要+intro 作者认为目前的坑是在point-wise级的融合,之前方法存在两个主要问题,第一,它们简单地通过逐个元素相加或拼接来融合LiDAR特征和图像特征,因此

    2023年04月08日
    浏览(63)
  • 21、LiDAR-LLM: Exploring the Potential of Large Language Models for 3D LiDAR Understanding

    官网  将原始LiDAR数据作为输入,利用LLMs卓越的推理能力,来获得对室外3D场景的全面了解,将3D户外场景认知重构为语言建模问题,如3D captioning, 3D grounding, 3D question answering。  给定LiDAR输入 L ∈ R n × 3 L in R^{n times 3} L ∈ R n × 3 ,n 是点的数量,使用 VoxelNet 获取 LiDAR Fe

    2024年01月21日
    浏览(45)
  • Vox-E: Text-guided Voxel Editing of 3D Objects(3D目标的文本引导体素编辑)

    Paper:https://readpaper.com/paper/1705264952657440000 Code:http://vox-e.github.io/ 原文链接:Vox-E: 3D目标的文本引导体素编辑 (by 小样本视觉与智能前沿) 这一领域的研究主要集中在仅外观的操作上,它改变了对象的纹理[44,46]和样式[48,42],或者通过与显式网格表示的对应关系进行几何编辑

    2024年02月12日
    浏览(41)
  • [arxiv论文阅读] LiDAR-LLM: Exploring the Potential of Large Language Models for 3D LiDAR Understanding

    Yang, S., Liu, J., Zhang, R., Pan, M., Guo, Z., Li, X., Chen, Z., Gao, P., Guo, Y., Zhang, S. (2023). LiDAR-LLM: Exploring the Potential of Large Language Models for 3D LiDAR Understanding. In arXiv [cs.CV]. arXiv. http://arxiv.org/abs/2312.14074 最近,大型语言模型(LLMs)和多模态大型语言模型(MLLMs)在 指令跟随 和 2D图像理解

    2024年02月02日
    浏览(64)
  • 论文笔记(二十九):BundleSDF: Neural 6-DoF Tracking and 3D Reconstruction of Unknown Objects

    作者:Bowen Wen, Jonathan Tremblay, Valts Blukis, Stephen Tyree, Thomas Muller, Alex Evans, Dieter Fox, Jan Kautz, Stan Birchfield 来源:arXiv:2303.14158v1 [cs.CV] 24 Mar 2023 原文:https://arxiv.org/pdf/2303.14158.pdf 代码、数据和视频: https://bundlesdf.github.io/ 系列文章目录: 上一篇: https://blog.csdn.net/xzs1210652636?spm=

    2024年02月04日
    浏览(44)
  • 经典文献阅读之--Evaluation of Lidar-based 3D SLAM algorithms (激光SLAM性能比较)

    我们在日常使用激光SLAM算法的时候,常常会发现现有的算法只会和一些比较经典或者前作去进行比较,很多时候我们更希望对主流的激光SLAM方法进行性能比较。之前作者转载过一篇文章《常见不同3D激光SLAM方案对比》。但是对比的算法有限。现在瑞典Lule科技大学评估9种最常

    2024年02月02日
    浏览(39)
  • 论文解读:Image-Adaptive YOLO for Object Detection in Adverse Weather Conditions

    发布时间:2022.4.4 (2021发布,进过多次修订) 论文地址:https://arxiv.org/pdf/2112.08088.pdf 项目地址:https://github.com/wenyyu/Image-Adaptive-YOLO 虽然基于深度学习的目标检测方法在传统数据集上取得了很好的结果,但从在恶劣天气条件下捕获的低质量图像中定位目标仍然具有挑战性。现有

    2024年02月11日
    浏览(47)
  • 论文阅读 - Social bot detection in the age of ChatGPT: Challenges and opportunities

    论文链接:https://www.researchgate.net/publication/371661341_Social_bot_detection_in_the_age_of_ChatGPT_Challenges_and_opportunities 目录 摘要: 引言 1.1. Background on social bots and their role in society 1.2. The rise of AI-generated chatbots like ChatGPT 1.3. The importance of social bot detection 1.4. Scope and objectives of the paper  2. T

    2024年02月14日
    浏览(51)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包