mmdetection3d-之(三)--FCOS3d训练waymo数据集

这篇具有很好参考价值的文章主要介绍了mmdetection3d-之(三)--FCOS3d训练waymo数据集。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

本内容分为两部分

  1. 1. waymo数据集转KITTI格式
  2. 2. FCOS3D训练KITTI格式的waymo数据集

1 waymo数据集转kitti格式

1.1 waymo数据集简介 

1.1.1 waymo数据集下载

waymo数据集v1.2.0可以从这里下载。其中,train(32个压缩包),test(8个压缩包),val(8个压缩包)。这里的文件都是压缩包,每个都有20个G左右。

waymo数据集格式,open-mmlab,人工智能,深度学习

如果不想下载压缩包,可以下载解压好individual的segments。

waymo数据集格式,open-mmlab,人工智能,深度学习

 waymo数据集的解析代码在这里,可以按照demo进行解析与可视化。GitHub - waymo-research/waymo-open-dataset: Waymo Open Dataset

1.1.2 waymo数据集分析

waymo(v1.2.0)数据集包含train(32个压缩包),test(8个压缩包),val(8个压缩包)。每个压缩包解压得到24个左右的tfrecord文件。一个tfrecord文件中包含20s的连续驾驶画面,具有199帧数据,是连续时间段的数据帧,一帧中包含了车上所有传感器的数据以及相应的label,连续镜头内容可以使得研究人员开发模型来跟踪和预测其他道路使用者的行为。

下图是一帧5个相机的画面:

waymo数据集格式,open-mmlab,人工智能,深度学习

 解析指导参考这里:Waymo数据集解析_waymo筛选前向雷达标签_ARIC_TXB的博客-CSDN博客

1.2 waymo转kitti格式

我这里使用的是mmdetection3d的master分支,

准备工作

1. 创建waymo-kitti/kitti_format文件夹,用于将waymo数据集转到kitti数据集。

2. 将 ImageSets 放到waymo-kitti2/kitti_format/文件夹下

step1.

pip install waymo-open-dataset-tf-2-5-0

step2 run create_data.py

1.3 waymo数据集中的坐标系

内参|原点_Waymo dataset+mmdet3d的坐标系问题

问题记录

问1 :frame_based、mv_image_based、fov_image_based分别是什么意思?

答:frame_based会使用周视的雷达数据,mv_image_based使用多个视角的camera图像,fov_image_based只是用一个默认视角的图像,可以理解为使用前视角

问2:报错内容“ BaseMono3DDenseHead.loss() - bboxes (:obj:`BaseInstance3DBoxes`): Contains a tensor with shape (num_instances, C), the last dimension C of a 3D box is (x, y, z, x_size, y_size, z_size, yaw, ...), where C >= 7. C = 7 for kitti and C = 9 for nuscenes with extra 2 dims of velocity.

答:nuscenes数据集的label有9个项目,最后两个是速度,而kitti和waymo是没有的,所以需要将初始化数据集类属性为7


 

问3:报错的原因在于 instances[0].keys() 中没有 attr_label ,这是不对的,框没有类别!这个attr_label标识的是nuscence数据集中,目标的运动属性,运动、停止、等。kitti和waymo是没有的,所以,将代码屏蔽,同时关闭属性预测功能。

train_pipeline = [
    dict(type='LoadImageFromFileMono3D'),
    dict(
        type='LoadAnnotations3D',
        with_bbox=True,
        with_label=True,
        with_attr_label=False,
        with_bbox_3d=True,
        with_label_3d=True,
        with_bbox_depth=True),

这样,就不会执行这一句【】

# mmdet3d/datasets/pipeline/loading.LoadAnnotations3D.__call__()
if self.with_attr_label:
   results = self._load_attr_labels(results)

番外篇

在按照官方指导安装mmdetection3d的时候,经常出现mmcv版本不对的问题,其实安装mmcv有3种方式。

方式一:mim install mmcv-full

方式二:

Installation — mmcv 1.7.1 documentation

方式三:本地编译安装对应版本 Releases · open-mmlab/mmcv · GitHub

参考链接

1. mmdet3d纯视觉baseline之数据准备:处理waymo dataset v1.3.1_ZLTJohn的博客-CSDN博客

2. mmdet3d读入waymo dataset:from file to input tensor-CSDN博客

3. mmdet3d training 流程_mmdet dist_train.sh_ZLTJohn的博客-CSDN博客

4. https://github.com/open-mmlab/mmdetection3d/issues/865

5. 关于Reszie3D · Issue #5 · Tai-Wang/Depth-from-Motion · GitHub 

6.  https://github.com/open-mmlab/mmdetection3d/issues/857 

waymo数据集格式,open-mmlab,人工智能,深度学习

7. https://github.com/open-mmlab/mmdetection3d/pull/964

8. 各种 attention 改进YOLOv5系列:19.添加SEAttention注意力机制_改进yolov5系列19添加seattention注意力机制_芒果汁没有芒果的博客-CSDN博客

9. mmdet3d纯视觉baseline之数据准备:处理waymo dataset v1.3.1_ZLTJohn的博客-CSDN博客 文章来源地址https://www.toymoban.com/news/detail-792118.html

到了这里,关于mmdetection3d-之(三)--FCOS3d训练waymo数据集的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • 【MMDetection3D】环境搭建,使用PointPillers训练&测试&可视化KITTI数据集

    2D卷不动了,来卷3D,之后更多地工作会放到3D检测上 本文将简单介绍什么是3D目标检测、KITTI数据集以及MMDetection3D算法库,重点介绍如何在MMDetection3D中,使用PointPillars算法训练KITTI数据集,并对结果进行测试和可视化。   对于一张输入图像,2D目标检测旨在给出物体类别并标

    2024年02月03日
    浏览(51)
  • FCOS3D: Fully Convolutional One-Stage Monocular 3D Object Detection

    Paper name FCOS3D: Fully Convolutional One-Stage Monocular 3D Object Detection Paper Reading Note URL: https://arxiv.org/pdf/2104.10956.pdf 基于 Fcos 改进的 3d 检测方案,在 NeurIPS 2020 的 nuScenes 3d 检测比赛上取得了第一名成绩 Fcos3d 方案 将 7-DoF 3D 目标解耦为 2D 和 3D 的属性 考虑对象的二维比例,将对象分布到

    2023年04月08日
    浏览(66)
  • 论文精读:《FCOS3D: Fully Convolutional One-Stage Monocular 3D Object Detection》

    单目三维目标检测具有成本低的优点,是自动驾驶的一项重要任务。 由于其固有的不适定特性,其主要表现为缺乏深度信息,因而比传统的二维情形更具挑 战性。 二维检测的最新进展为更好地解决这一问题提供了机会。 然而,使一个通用的自适应二维探测器在这种三维任务

    2024年02月06日
    浏览(53)
  • MMDetection3D简单学习

    我们通常把模型的各个组成成分分成 6 种类型: 编码器(encoder):包括 voxel encoder 和 middle encoder 等进入 backbone 前所使用的基于体素的方法,如  HardVFE  和  PointPillarsScatter 。 骨干网络(backbone):通常采用 FCN 网络来提取特征图,如  ResNet  和  SECOND 。 颈部网络(neck):

    2024年02月13日
    浏览(44)
  • MMDetection3D框架环境配置

    MMDetection3D是一个基于PyTorch的开源3D目标检测框架。下面是MMDetection3D的环境配置步骤: 安装Anaconda,教程很多不在说明。 1.创建Python环境 使用以下命令创建一个Python 3.8环境: 使用以下命令激活Python环境:  2.安装gpu版本的torch、torchvision 2.1 下载对应的torch、torchvision安装包:

    2024年02月09日
    浏览(49)
  • mmdetection3d nuScenes (持续更新)

    本文为博主原创文章,未经博主允许不得转载。 本文为专栏《python三维点云从基础到深度学习》系列文章,地址为“https://blog.csdn.net/suiyingy/article/details/124017716”。         Mmdetection3d集成了大量3D深度学习算法,其中很大一部分可以在智能驾驶nuScenes数据集上运行。在算法

    2023年04月15日
    浏览(44)
  • win10 mmdetection3d环境搭建

    官网:mmdetection3d/README_zh-CN.md at master · open-mmlab/mmdetection3d · GitHub 安装过程参照:win10 mmdetection3d 训练KITTI_树和猫的博客-CSDN博客_pointnet训练kitti 官网安装过程 3D目标检测框架综述-知乎中描述了当前3D目标检测的数据和模型状况,为了能将数据和评价标准等统一,介绍了4个比

    2023年04月18日
    浏览(40)
  • 【MMDetection3D】MVXNet踩坑笔记

    原文 代码 MVXNet(CVPR2019) 最近许多关于3D target detection的工作都集中在设计能够使用点云数据的神经网络架构上。虽然这些方法表现出令人鼓舞的性能,但它们通常基于单一模态,无法利用其他模态(如摄像头和激光雷达)的信息。尽管一些方法融合了来自不同模式的数据,这些方

    2024年01月18日
    浏览(50)
  • 自动驾驶 2D 单目\双目\多目视觉方法 一(Pseudo-LiDAR,Mono3D,FCOS3D,PSMNet)

    自动驾驶中必不可少的3D场景感知。因为深度信息、目标三维尺寸等在2D感知中是无法获得的,而这些信息才是自动驾驶系统对周围环境作出正确判断的关键。想得到3D信息,最直接的方法就是采用激光雷达(LiDAR)。但是,LiDAR也有其缺点,比如成本较高,车规级产品量产困难

    2024年02月02日
    浏览(38)
  • 新版mmdetection3d将3D bbox绘制到图像

    使用 python mmdet3d/utils/collect_env.py 收集环境信息 以前写过mmdetection3d中的可视化,但mmdetection3d更新后代码已经不适用了,正好我把我的工作全转移到新版mmdetection3d上来了,因此重新写了一下推理结果可视化。整体思路还是构建模型、构建数据、推理、绘制,下面分步讲解 我用

    2024年04月15日
    浏览(47)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包