【论文复现】AB3DMOT: A Baseline for 3D Multi-Object Tracking and New Evaluation Metrics

这篇具有很好参考价值的文章主要介绍了【论文复现】AB3DMOT: A Baseline for 3D Multi-Object Tracking and New Evaluation Metrics。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

1. 前言

AB3MOT是经典的3D多目标跟踪框架,将2D卡尔曼推广到了3D,并将2D IOU匹配推广到了3D。由于论文的原理基本上与2D相同所以作者在文中没有叙述很多细节,要理解具体实现细节,只能看代码。
项目代码
论文地址

2.环境配置

anaconda 官网下载
KITTI数据集 KITTI这是会发现很大如果简单测试可以先不下载,我是先按照README测试了QuickDemo后,最后测试的完整数据集,因为校园网很贵,或者凌晨下载,凌晨不要钱,总之你如果下载数据集不方便可以跳过继续看。
ab3dmot,算法学习,算法,python参考链接1:
ubuntu18.04配置AB3DMOT多目标跟踪算法,详细配置流程–暧昧的呆呆猫

按照官方README一步一步来,遇到问题参考“参考链接1”,最后添加环境变量:

sudo gedit ~/.bashrc
加入
export PYTHONPATH=${PYTHONPATH}:/home/rock/AB3DMOT
export PYTHONPATH=${PYTHONPATH}:/home/rock/AB3DMOT/Xinshuo_PyToolbox
注意rock是我的用户名字,改成你的,还要注意文件夹结构的对应
source ~/.bashrc

ab3dmot,算法学习,算法,python

3.QuickDemo

此时准备好环境后直接运行QuickDemo会报错,因为文件跟代码存在问题,首先是需要OXTS数据集文件
ab3dmot,算法学习,算法,python
KITTI官网下载。并在AB3MOT/data/KITTI/目录下新建tracking文件夹,此时提醒你已有文件夹,删除重建好了,因为原始的丢失了
ab3dmot,算法学习,算法,python
将下载好的文件解压进去,最好使用linux的标准的解压命令Ubuntu 常用解压与压缩命令-蕉叉熵
,有时解压由于编码问题也会出现莫名bug.
你可以看到data目录下有个mini的文件夹,复制里面训练集与测试集的calib与image_02到相应的tracking文件夹下ab3dmot,算法学习,算法,python
此时运行README的QuickDemo还是报错,哎(当时我在想不是吧大佬的代码这么多bug!!!),后来我发现读懂代码是复现大佬代码的第一道门槛,嘿嘿
修改代码,
ab3dmot,算法学习,算法,python
因为mini数据集不全,所以把AB3MOT/AB3MOT_libs/utils.py中验证集的参数改为
ab3dmot,算法学习,算法,python
为什么呢,看下图,因为复制的mini只有这两个,原始代码是完整KITTI数据集的
ab3dmot,算法学习,算法,python
此时运行,发现成功了结果在AB3MOT/results/KITTI/pointrcnn_val_H1_thres
ab3dmot,算法学习,算法,python
分别是图片与视频,由于图片很少所以视频很短,接下来需要下载KITTI数据集,复现长的视频序列。

4.KITTI数据集测试

刚开始你会发现官网让你下载完整数据集,然后看到数据集大小,就劝退了,后来经过细细阅读代码,我发现只需要下载15G的图像数据即可:
ab3dmot,算法学习,算法,python
ab3dmot,算法学习,算法,python
并不需要雷达的35GB除非你想可视化点云的。因此我只下载左相机的,一定看清楚左相机,数据集后面也有描述。漫长的等待,其实就是吃了饭的功夫,嘿嘿~
删除tracking中原先的图像数据,解压新的。剩下的跟QuickDemo的命令一样,结果存放位置也一样。

python3 main.py --dataset KITTI --split val --det_name pointrcnn
python3 scripts/post_processing/trk_conf_threshold.py --dataset KITTI --result_sha pointrcnn_val_H1
python3 scripts/post_processing/visualization.py --result_sha pointrcnn_val_H1_thres --split val

ab3dmot,算法学习,算法,python
打开就是结果的视频了,0001.mp4见复现结果,接下来慢慢研究,嘿嘿

复现结果

ab3dmot,算法学习,算法,python
tip:markdown图片gif居中小技巧
ab3dmot,算法学习,算法,python
后缀加入#pic_center文章来源地址https://www.toymoban.com/news/detail-779385.html

到了这里,关于【论文复现】AB3DMOT: A Baseline for 3D Multi-Object Tracking and New Evaluation Metrics的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • 3D Gaussian Splatting for Real-Time Radiance Field Rendering论文中代码复现及排错过程

    graphdeco-inria/gaussian-splatting: Original reference implementation of “3D Gaussian Splatting for Real-Time Radiance Field Rendering” (github.com) 以下是最初电脑所安装的内容: Anaconda3 2022.10-Windows-x86_64 CUDA 电脑只支持11.6,所以装的是11.6版本。 使用git去克隆repository 尽管挂了梯子,但是还是需要多次刷

    2024年02月05日
    浏览(48)
  • OVRL-V2: A simple state-of-art baseline for IMAGENAV and OBJECTNAV 论文阅读

    题目 :OVRL-V2: A simple state-of-art baseline for IMAGENAV and OBJECTNAV 作者 :Karmesh Yadav, Arjun Majumdar, Ram Ramrakhya 来源 :arxiv 时间 :2023 代码地址 : https://github.com/ykarmesh/OVRL 我们提出了一个由与任务无关的组件(ViT、卷积和 LSTM)组成的单一神经网络架构,该架构在 IMAGENAV(“转到 这

    2024年02月11日
    浏览(27)
  • 论文笔记 Spatial-Temporal Identity: A Simple yet Effective Baseline for Multivariate Time Series Forecas

    CIKM 2022 多维时间序列(Multivariate Time Series, MTS) 最关键的、区别于其他数据的特点是,这些 时间序列之间存在着明显的依赖关系 MTS 预测的关键是:对 MTS 的第 i 条时间序列进行预测的时候,不仅要考虑这第 i 条时间序列的历史信息,也要考虑其他时间序列的历史信息】

    2024年02月02日
    浏览(33)
  • 【单目3D目标检测】SMOKE论文解析与代码复现

    在正篇之前,有必要先了解一下yacs库,因为SMOKE源码的参数配置文件,都是基于yacs库建立起来的,不学看不懂啊!!!! yacs是一个用于定义和管理参数配置的库(例如用于训练模型的超参数或可配置模型超参数等)。yacs使用yaml文件来配置参数。另外,yacs是在py-fast -rcnn和

    2024年02月09日
    浏览(31)
  • 【单目3D目标检测】FCOS3D + PGD论文解析与代码复现

    本文对OpenMMLab在Monocular 3D detection领域做的两项工作FCOS3D和PGD(也被称作FCOS3D++)进行介绍。 在此之前,建议大家通过这篇博客:“3Dfy” A General 2D Detector: 纯视觉 3D 检测再思考,来回顾单目3D目标检测的更多细节。   Wang, T, Zhu, X, Pang, J, et al. Fcos3d: Fully convolutional one-stage mono

    2024年02月02日
    浏览(28)
  • 最强无监督单目深度估计Baseline--MonoViT--简介与代码复现

       单目深度估计是指,借助于深度神经网络,从单张输入视图中推理场景的稠密深度信息;该技术可以广泛用于自动驾驶、虚拟现实、增强现实等依赖于三维场景感知理解的领域,同时也可以为其他视觉任务提供多模态深度信息,辅助其他任务感知的精确性。   由于不需要

    2024年02月03日
    浏览(55)
  • 【车间调度】论文阅读复现——effective neighbourhood functions for the flexible job shop problem

    在复现另一篇文献An effective hybrid genetic algorithm and tabu search for flexible job shop scheduling problem的算法时,发现其中的局部搜索使用了k-insertion的邻域动作,于是找到出处:effective neighbourhood functions for the flexible job shop problem。这篇文章主要是对k-insertion的一些性质的解释与证明,我

    2024年02月03日
    浏览(45)
  • 论文复现--lightweight-human-pose-estimation-3d-demo.pytorch(单视角多人3D实时动作捕捉DEMO)

    分类:动作捕捉 github地址:https://github.com/Daniil-Osokin/lightweight-human-pose-estimation-3d-demo.pytorch 所需环境: Windows10,conda 4.13.0; 安装成功 将这tensorRT的三个文件夹复制到CUDA下( 记得复制之前CUDA的原始三个文件夹做好副本 注意路径 ) 很奇怪 我的convert_to_trt.py没法找到上级目录中

    2024年02月10日
    浏览(36)
  • 《VM-UNet: Vision Mamba UNet for Medical Image Segmentation》论文阅读及代码复现

    论文地址:[2402.02491] VM-UNet: Vision Mamba UNet for Medical Image Segmentation (arxiv.org) 代码地址:JCruan519/VM-UNet: (ARXIV24) This is the official code repository for \\\"VM-UNet: Vision Mamba UNet for Medical Image Segmentation\\\". (github.com) 摘要 : 在医学图像分割领域,基于细胞神经网络和基于变换器的模型都得到了广

    2024年03月24日
    浏览(49)
  • 论文阅读《Hierarchical Aggregation for 3D Instance Segmentation》

    Hierarchical Aggregation for 3D Instance Segmentation是一个用于实例分割的方法,他主要利用了点以及点集之间的空间关系,以此进行实例分割。大概步骤如下: 首先进行低带宽点汇集得到初步的实例以避免过度分割 之后进行动态带宽集合汇集以得到完整的实例 引入实例内网络进行去

    2024年02月04日
    浏览(36)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包