【论文复现】AB3DMOT: A Baseline for 3D Multi-Object Tracking and New Evaluation Metrics

这篇具有很好参考价值的文章主要介绍了【论文复现】AB3DMOT: A Baseline for 3D Multi-Object Tracking and New Evaluation Metrics。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

1. 前言

AB3MOT是经典的3D多目标跟踪框架,将2D卡尔曼推广到了3D,并将2D IOU匹配推广到了3D。由于论文的原理基本上与2D相同所以作者在文中没有叙述很多细节,要理解具体实现细节,只能看代码。
项目代码
论文地址

2.环境配置

anaconda 官网下载
KITTI数据集 KITTI这是会发现很大如果简单测试可以先不下载,我是先按照README测试了QuickDemo后,最后测试的完整数据集,因为校园网很贵,或者凌晨下载,凌晨不要钱,总之你如果下载数据集不方便可以跳过继续看。
ab3dmot,算法学习,算法,python参考链接1:
ubuntu18.04配置AB3DMOT多目标跟踪算法,详细配置流程–暧昧的呆呆猫

按照官方README一步一步来,遇到问题参考“参考链接1”,最后添加环境变量:

sudo gedit ~/.bashrc
加入
export PYTHONPATH=${PYTHONPATH}:/home/rock/AB3DMOT
export PYTHONPATH=${PYTHONPATH}:/home/rock/AB3DMOT/Xinshuo_PyToolbox
注意rock是我的用户名字,改成你的,还要注意文件夹结构的对应
source ~/.bashrc

ab3dmot,算法学习,算法,python

3.QuickDemo

此时准备好环境后直接运行QuickDemo会报错,因为文件跟代码存在问题,首先是需要OXTS数据集文件
ab3dmot,算法学习,算法,python
KITTI官网下载。并在AB3MOT/data/KITTI/目录下新建tracking文件夹,此时提醒你已有文件夹,删除重建好了,因为原始的丢失了
ab3dmot,算法学习,算法,python
将下载好的文件解压进去,最好使用linux的标准的解压命令Ubuntu 常用解压与压缩命令-蕉叉熵
,有时解压由于编码问题也会出现莫名bug.
你可以看到data目录下有个mini的文件夹,复制里面训练集与测试集的calib与image_02到相应的tracking文件夹下ab3dmot,算法学习,算法,python
此时运行README的QuickDemo还是报错,哎(当时我在想不是吧大佬的代码这么多bug!!!),后来我发现读懂代码是复现大佬代码的第一道门槛,嘿嘿
修改代码,
ab3dmot,算法学习,算法,python
因为mini数据集不全,所以把AB3MOT/AB3MOT_libs/utils.py中验证集的参数改为
ab3dmot,算法学习,算法,python
为什么呢,看下图,因为复制的mini只有这两个,原始代码是完整KITTI数据集的
ab3dmot,算法学习,算法,python
此时运行,发现成功了结果在AB3MOT/results/KITTI/pointrcnn_val_H1_thres
ab3dmot,算法学习,算法,python
分别是图片与视频,由于图片很少所以视频很短,接下来需要下载KITTI数据集,复现长的视频序列。

4.KITTI数据集测试

刚开始你会发现官网让你下载完整数据集,然后看到数据集大小,就劝退了,后来经过细细阅读代码,我发现只需要下载15G的图像数据即可:
ab3dmot,算法学习,算法,python
ab3dmot,算法学习,算法,python
并不需要雷达的35GB除非你想可视化点云的。因此我只下载左相机的,一定看清楚左相机,数据集后面也有描述。漫长的等待,其实就是吃了饭的功夫,嘿嘿~
删除tracking中原先的图像数据,解压新的。剩下的跟QuickDemo的命令一样,结果存放位置也一样。

python3 main.py --dataset KITTI --split val --det_name pointrcnn
python3 scripts/post_processing/trk_conf_threshold.py --dataset KITTI --result_sha pointrcnn_val_H1
python3 scripts/post_processing/visualization.py --result_sha pointrcnn_val_H1_thres --split val

ab3dmot,算法学习,算法,python
打开就是结果的视频了,0001.mp4见复现结果,接下来慢慢研究,嘿嘿

复现结果

ab3dmot,算法学习,算法,python
tip:markdown图片gif居中小技巧
ab3dmot,算法学习,算法,python
后缀加入#pic_center文章来源地址https://www.toymoban.com/news/detail-779385.html

到了这里,关于【论文复现】AB3DMOT: A Baseline for 3D Multi-Object Tracking and New Evaluation Metrics的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包赞助服务器费用

相关文章

  • 3D Gaussian Splatting for Real-Time Radiance Field Rendering论文中代码复现及排错过程

    3D Gaussian Splatting for Real-Time Radiance Field Rendering论文中代码复现及排错过程

    graphdeco-inria/gaussian-splatting: Original reference implementation of “3D Gaussian Splatting for Real-Time Radiance Field Rendering” (github.com) 以下是最初电脑所安装的内容: Anaconda3 2022.10-Windows-x86_64 CUDA 电脑只支持11.6,所以装的是11.6版本。 使用git去克隆repository 尽管挂了梯子,但是还是需要多次刷

    2024年02月05日
    浏览(6)
  • OVRL-V2: A simple state-of-art baseline for IMAGENAV and OBJECTNAV 论文阅读

    OVRL-V2: A simple state-of-art baseline for IMAGENAV and OBJECTNAV 论文阅读

    题目 :OVRL-V2: A simple state-of-art baseline for IMAGENAV and OBJECTNAV 作者 :Karmesh Yadav, Arjun Majumdar, Ram Ramrakhya 来源 :arxiv 时间 :2023 代码地址 : https://github.com/ykarmesh/OVRL 我们提出了一个由与任务无关的组件(ViT、卷积和 LSTM)组成的单一神经网络架构,该架构在 IMAGENAV(“转到 这

    2024年02月11日
    浏览(9)
  • 论文笔记 Spatial-Temporal Identity: A Simple yet Effective Baseline for Multivariate Time Series Forecas

    论文笔记 Spatial-Temporal Identity: A Simple yet Effective Baseline for Multivariate Time Series Forecas

    CIKM 2022 多维时间序列(Multivariate Time Series, MTS) 最关键的、区别于其他数据的特点是,这些 时间序列之间存在着明显的依赖关系 MTS 预测的关键是:对 MTS 的第 i 条时间序列进行预测的时候,不仅要考虑这第 i 条时间序列的历史信息,也要考虑其他时间序列的历史信息】

    2024年02月02日
    浏览(10)
  • 【单目3D目标检测】SMOKE论文解析与代码复现

    【单目3D目标检测】SMOKE论文解析与代码复现

    在正篇之前,有必要先了解一下yacs库,因为SMOKE源码的参数配置文件,都是基于yacs库建立起来的,不学看不懂啊!!!! yacs是一个用于定义和管理参数配置的库(例如用于训练模型的超参数或可配置模型超参数等)。yacs使用yaml文件来配置参数。另外,yacs是在py-fast -rcnn和

    2024年02月09日
    浏览(21)
  • 【单目3D目标检测】FCOS3D + PGD论文解析与代码复现

    【单目3D目标检测】FCOS3D + PGD论文解析与代码复现

    本文对OpenMMLab在Monocular 3D detection领域做的两项工作FCOS3D和PGD(也被称作FCOS3D++)进行介绍。 在此之前,建议大家通过这篇博客:“3Dfy” A General 2D Detector: 纯视觉 3D 检测再思考,来回顾单目3D目标检测的更多细节。   Wang, T, Zhu, X, Pang, J, et al. Fcos3d: Fully convolutional one-stage mono

    2024年02月02日
    浏览(20)
  • 最强无监督单目深度估计Baseline--MonoViT--简介与代码复现

    最强无监督单目深度估计Baseline--MonoViT--简介与代码复现

       单目深度估计是指,借助于深度神经网络,从单张输入视图中推理场景的稠密深度信息;该技术可以广泛用于自动驾驶、虚拟现实、增强现实等依赖于三维场景感知理解的领域,同时也可以为其他视觉任务提供多模态深度信息,辅助其他任务感知的精确性。   由于不需要

    2024年02月03日
    浏览(109)
  • 【车间调度】论文阅读复现——effective neighbourhood functions for the flexible job shop problem

    【车间调度】论文阅读复现——effective neighbourhood functions for the flexible job shop problem

    在复现另一篇文献An effective hybrid genetic algorithm and tabu search for flexible job shop scheduling problem的算法时,发现其中的局部搜索使用了k-insertion的邻域动作,于是找到出处:effective neighbourhood functions for the flexible job shop problem。这篇文章主要是对k-insertion的一些性质的解释与证明,我

    2024年02月03日
    浏览(11)
  • 论文复现--lightweight-human-pose-estimation-3d-demo.pytorch(单视角多人3D实时动作捕捉DEMO)

    论文复现--lightweight-human-pose-estimation-3d-demo.pytorch(单视角多人3D实时动作捕捉DEMO)

    分类:动作捕捉 github地址:https://github.com/Daniil-Osokin/lightweight-human-pose-estimation-3d-demo.pytorch 所需环境: Windows10,conda 4.13.0; 安装成功 将这tensorRT的三个文件夹复制到CUDA下( 记得复制之前CUDA的原始三个文件夹做好副本 注意路径 ) 很奇怪 我的convert_to_trt.py没法找到上级目录中

    2024年02月10日
    浏览(15)
  • 《VM-UNet: Vision Mamba UNet for Medical Image Segmentation》论文阅读及代码复现

    《VM-UNet: Vision Mamba UNet for Medical Image Segmentation》论文阅读及代码复现

    论文地址:[2402.02491] VM-UNet: Vision Mamba UNet for Medical Image Segmentation (arxiv.org) 代码地址:JCruan519/VM-UNet: (ARXIV24) This is the official code repository for \\\"VM-UNet: Vision Mamba UNet for Medical Image Segmentation\\\". (github.com) 摘要 : 在医学图像分割领域,基于细胞神经网络和基于变换器的模型都得到了广

    2024年03月24日
    浏览(11)
  • 论文阅读《Hierarchical Aggregation for 3D Instance Segmentation》

    论文阅读《Hierarchical Aggregation for 3D Instance Segmentation》

    Hierarchical Aggregation for 3D Instance Segmentation是一个用于实例分割的方法,他主要利用了点以及点集之间的空间关系,以此进行实例分割。大概步骤如下: 首先进行低带宽点汇集得到初步的实例以避免过度分割 之后进行动态带宽集合汇集以得到完整的实例 引入实例内网络进行去

    2024年02月04日
    浏览(11)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包