视觉SLAM数据集(一):TUM DataSet

这篇具有很好参考价值的文章主要介绍了视觉SLAM数据集(一):TUM DataSet。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

首先给出数据集下载地址:TUM Dataset Download。 如果你是第一次做实验,建议下载xyz的数据集,因为它的动作相对很小,只包含桌面上的一小部分。一旦成功测试,就可以试试desk数据集,它包含四张桌子和几个闭环。

一、文件格式

从Kinect相机拍摄的RGB-D数据集格式如下:

1、彩色图像和深度图

我们提供带时间戳的彩色和深度图像作为一个压缩包文件(tar.gz)。

  • color图像都是640x480的8位RGB图像,格式是PNG。
  • depth图像是640x480的16位单色图像,格式是PNG。
  • color和depth图像已经使用PrimeSense的OpenNI驱动程序进行了预校准,即color图像和depth图像中的像素已经1:1对应。
  • depth图像按因子5000缩放,即深度图像中的像素值5000对应于距相机1米的距离、10000对应于2米的距离等。像素值0表示缺失值/无数据。

2、真实轨迹

我们提供了一个在固定坐标系中包含相机的平移和方向的txt文件作为真实的轨迹。请注意,我们的自动评估工具期望的是这样格式的真实轨迹和预测轨迹。

  • 在txt文件中每一行包含一个位姿
  • 每一行的形式都是“timestamp tx ty tz qx qy qz qw
  • 时间戳(float)表示从Unix时代以来的秒数
  • tx ty tz(3 floats)表示彩色相机的光学中心相对于运动捕捉系统定义的世界原点的位置
  • qx qy qz qw (4 floats)以世界原点的单位四元数的形式给出彩色相机的光学中心的方向。
  • 文件可能包含必须以#开头的注释

3、Kinect相机的内参标定

Kinect基于高级多项式扭曲函数,在相机上存储了出厂校准。OpenNI驱动程序使用此校准来消除图像失真,并将Depth图像(由红外相机拍摄)配准到RGB图像。因此,我们数据集中的深度图像被重新投影到彩色相机的框架中,这意味着深度图和彩色图像中的像素之间存在1:1的对应关系。

从2D图像到3D点云的转换工作如下。注意,每个相机的焦距(fx/fy)、光学中心(cx/cy)、失真参数(d0-d4)和深度校正因子是不同的。下面的Python代码说明了如何根据像素坐标和深度值计算3D点:

fx = 525.0  # focal length x
fy = 525.0  # focal length y
cx = 319.5  # optical center x
cy = 239.5  # optical center y

factor = 5000 # for the 16-bit PNG files
# OR: factor = 1 # for the 32-bit float images in the ROS bag files

for v in range(depth_image.height):
  for u in range(depth_image.width):
    Z = depth_image[v,u] / factor;
    X = (u - cx) * Z / fx;
    Y = (v - cy) * Z / fy;

二、固有的相机参数

注意,上面的脚本使用默认(未校准)的内在参数。fr1和fr2数据集中使用的Kinect的固有参数如下:

1、彩色摄像机的标定


我们从rgbd_dataset_freiburg1/2_RGB_acalibration.bag计算了RGB相机的固有参数。
tum数据集分享,ORB-SLAM2,计算机视觉,人工智能,摄像机,slam,机器人

注意,Freiburg 3序列的彩色图像和红外图像都已经无失真了,因此失真参数都为零。原始失真值可以在tgz文件中找到。
注意:我们建议使用ROS默认数据集(即,无失真),因为预配准的深度图像的失真并不重要。

2、深度图像的标定


我们通过将报告的深度值与RGB标定板估计的深度进行比较来验证深度值。在本实验中,我们发现Kinect报告的深度值偏离了恒定的缩放因子,如下表所示:

Camera ds
Freiburg 1 Depth 1.035
Freiburg 2 Depth 1.031
Freiburg 3 Depth 1.000

注意:我们已经对所有序列的深度图像进行了相应的预缩放,因此不需要在您一侧进行任何操作。

3、红外摄像头的标定


我们还提供了红外摄像头的内参。注意我们数据集提供的depth图像已经和rgb图像预配准了。因此,不需要根据内参再校准depth图像。
tum数据集分享,ORB-SLAM2,计算机视觉,人工智能,摄像机,slam,机器人

注意,Freiburg 3序列的彩色图像和红外图像都已经无失真了,因此失真参数都为零。原始失真值可以在tgz文件中找到。

4、视觉检验的视频

对于单个数据集的视觉检查,我们还提供Kinect(RGB和Depth)和外部摄像机的电影。电影格式是存储在AVI容器中的mpeg4。

三、RGB-D 基准测试的有用工具

我们提供了一组工具,可用于预处理数据集并评估 SLAM/跟踪结果。脚本可以点这里下载。

要使用 Subversion 签出存储库,请运行

svn checkout https://svncvpr.in.tum.de/cvpr-ros-pkg/trunk/rgbd_benchmark/rgbd_benchmark_tools

1、关联颜色和深度图像

Kinect 以不同步的方式提供颜色和深度图像。这意味着来自彩色图像的时间戳集不会与深度图像的时间戳集相交。因此,我们需要某种将彩色图像与深度图像相关联的方法。为此,您可以使用“associate.py”脚本。它从文件和文件中读取时间戳,并通过查找最佳匹配项来联接它们。

usage: associate.py [-h] [--first_only] [--offset OFFSET]
                    [--max_difference MAX_DIFFERENCE]
                    first_file second_file

This script takes two data files with timestamps and associates them

positional arguments:
  first_file            first text file (format: timestamp data)
  second_file           second text file (format: timestamp data)

optional arguments:
  -h, --help            show this help message and exit
  --first_only          only output associated lines from first file
  --offset OFFSET       time offset added to the timestamps of the second file
                        (default: 0.0)
  --max_difference MAX_DIFFERENCE
                        maximally allowed time difference for matching entries
                        (default: 0.02)

2、评估

在估计 Kinect 的相机轨迹并将其保存到文件中后,我们需要通过将其与地面事实进行比较来评估估计轨迹中的误差。有不同的错误指标。两种突出的方法是绝对轨迹误差(ATE)和相对姿势误差(RPE)。ATE 非常适合测量可视 SLAM 系统的性能。相比之下,RPE非常适合测量视觉里程计系统的漂移,例如每秒漂移。

对于这两个指标,我们提供了可在此处下载的自动评估脚本。请注意,我们的网站上还有一个在线版本。 这两个轨迹都必须存储在一个文本文件中(格式:“时间戳 tx ty tz qx qy qy qw”,更多信息)。为了进行比较,我们提供一组轨迹来自 RGBD-SLAM。

2.1、绝对轨迹误差 (ATE)


绝对轨迹误差直接测量真实轨迹点与估计轨迹点之间的差异。作为预处理步骤,我们使用时间戳将估计的姿势与真实姿势相关联。基于这种关联,我们使用奇异值分解来对齐真实轨迹和估计轨迹。最后,我们计算每对姿势之间的差异,并输出这些差异的平均值/中位数/标准偏差。或者,该脚本可以将这两个轨迹绘制到 png 或 pdf 文件中。

usage: evaluate_ate.py [-h] [--offset OFFSET] [--scale SCALE]
                       [--max_difference MAX_DIFFERENCE] [--save SAVE]
                       [--save_associations SAVE_ASSOCIATIONS] [--plot PLOT]
                       [--verbose]
                       first_file second_file

This script computes the absolute trajectory error from the ground truth
trajectory and the estimated trajectory.

positional arguments:
  first_file            first text file (format: timestamp tx ty tz qx qy qz
                        qw)
  second_file           second text file (format: timestamp tx ty tz qx qy qz
                        qw)

optional arguments:
  -h, --help            show this help message and exit
  --offset OFFSET       time offset added to the timestamps of the second file
                        (default: 0.0)
  --scale SCALE         scaling factor for the second trajectory (default:
                        1.0)
  --max_difference MAX_DIFFERENCE
                        maximally allowed time difference for matching entries
                        (default: 0.02)
  --save SAVE           save aligned second trajectory to disk (format: stamp2
                        x2 y2 z2)
  --save_associations SAVE_ASSOCIATIONS
                        save associated first and aligned second trajectory to
                        disk (format: stamp1 x1 y1 z1 stamp2 x2 y2 z2)
  --plot PLOT           plot the first and the aligned second trajectory to an
                        image (format: png)
  --verbose             print all evaluation data (otherwise, only the RMSE
                        absolute translational error in meters after alignment
                        will be printed)

2.2、相对姿势误差 (RPE)


为了计算相对姿势误差,我们提供了一个脚本“evaluate_rpe.py”.此脚本计算时间戳对之间的相对运动误差。默认情况下,脚本计算估计轨迹文件中所有时间戳对之间的误差。由于估计轨迹中的时间戳对数在轨迹长度上是二次的,因此将此集合下采样为固定数量 (–max_pairs) 是有意义的。或者,可以选择使用固定窗口大小 (–fixed_delta)。在这种情况下,估计轨迹中的每个姿势都根据窗口大小 (–delta) 和单位 (–delta_unit) 与后面的姿势相关联。此评估技术对于估计漂移很有用。

usage: evaluate_rpe.py [-h] [--max_pairs MAX_PAIRS] [--fixed_delta]
                       [--delta DELTA] [--delta_unit DELTA_UNIT]
                       [--offset OFFSET] [--scale SCALE] [--save SAVE]
                       [--plot PLOT] [--verbose]
                       groundtruth_file estimated_file

This script computes the relative pose error from the ground truth trajectory
and the estimated trajectory.

positional arguments:
  groundtruth_file      ground-truth trajectory file (format: "timestamp tx ty
                        tz qx qy qz qw")
  estimated_file        estimated trajectory file (format: "timestamp tx ty tz
                        qx qy qz qw")

optional arguments:
  -h, --help            show this help message and exit
  --max_pairs MAX_PAIRS
                        maximum number of pose comparisons (default: 10000,
                        set to zero to disable downsampling)
  --fixed_delta         only consider pose pairs that have a distance of delta
                        delta_unit (e.g., for evaluating the drift per
                        second/meter/radian)
  --delta DELTA         delta for evaluation (default: 1.0)
  --delta_unit DELTA_UNIT
                        unit of delta (options: 's' for seconds, 'm' for
                        meters, 'rad' for radians, 'f' for frames; default:
                        's')
  --offset OFFSET       time offset between ground-truth and estimated
                        trajectory (default: 0.0)
  --scale SCALE         scaling factor for the estimated trajectory (default:
                        1.0)
  --save SAVE           text file to which the evaluation will be saved
                        (format: stamp_est0 stamp_est1 stamp_gt0 stamp_gt1
                        trans_error rot_error)
  --plot PLOT           plot the result to a file (requires --fixed_delta,
                        output format: png)
  --verbose             print all evaluation data (otherwise, only the mean
                        translational error measured in meters will be
                        printed)

3、从图像生成点云


深度图像已配准到彩色图像,因此深度图像中的像素已与彩色图像中的像素一一对应。因此,生成彩色点云非常简单。示例脚本位于“generate_pointcloud.py”,以彩色图像和深度图为输入,并生成PLY格式的点云文件。这种格式可以被许多3D建模程序读取,例如meshlab。您可以下载适用于Windows,Mac和Linux的meshlab。

usage: generate_pointcloud.py [-h] rgb_file depth_file ply_file

This script reads a registered pair of color and depth images and generates a
colored 3D point cloud in the PLY format.

positional arguments:
  rgb_file    input color image (format: png)
  depth_file  input depth image (format: png)
  ply_file    output PLY file (format: ply)

optional arguments:
  -h, --help  show this help message and exit

tum数据集分享,ORB-SLAM2,计算机视觉,人工智能,摄像机,slam,机器人

4、将点云添加到 ROS 包文件

在下载页面上,我们已经为RVIZ中的视觉检查数据集提供了ROS包文件,并添加了点云。由于生成的文件很大,我们将这些包文件缩减采样为 2 Hz。如果要生成包含所有图像(30 Hz)的点云的ROS包文件,则可以使用“add_pointclouds_to_bagfile.py”脚本。

usage: add_pointclouds_to_bagfile.py [-h] [--start START]
                                     [--duration DURATION] [--nth NTH]
                                     [--skip SKIP] [--compress]
                                     inputbag [outputbag]

This scripts reads a bag file containing RGBD data, adds the corresponding
PointCloud2 messages, and saves it again into a bag file. Optional arguments
allow to select only a portion of the original bag file.

positional arguments:
  inputbag             input bag file
  outputbag            output bag file

optional arguments:
  -h, --help           show this help message and exit
  --start START        skip the first N seconds of input bag file (default:
                       0.0)
  --duration DURATION  only process N seconds of input bag file (default: off)
  --nth NTH            only process every N-th frame of input bag file
                       (default: 15)
  --skip SKIP          skip N blocks in the beginning (default: 1)
  --compress           compress output bag file

5、在 RVIZ 中可视化数据集

RVIZ是ROS中的标准可视化工具。它可以很容易地适应显示许多不同的消息。特别是,它可用于显示ROS包文件中的点云。为此,请运行(在三个不同的控制台中)

roscore
rosrun rviz rviz
rosbag play rgbd_dataset_freiburg1_xyz-2hz-with-pointclouds.bag

如果这是第一次启动,则必须启用内置显示(菜单 –>插件 –>选中内置插件的“已加载”)。在显示选项卡中,将“固定帧”设置为“/world”。单击“添加”,然后选择 PointCloud2 显示,并将主题设置为“/camera/rgb/points”。要显示颜色,请在点云显示中将“颜色转换器”更改为“RGB8”,并将“样式”更改为“点”。如果需要,可以将衰减时间设置为合适的值(例如 5 秒),以便在点进入时累积查看器中的点。然后,结果应如下所示:

tum数据集分享,ORB-SLAM2,计算机视觉,人工智能,摄像机,slam,机器人
名称为*_validation这些序列不包含基本事实。他们只能使用在线工具进行评估。

四、详细信息

1、测试和调试

freiburg1_xyz
tum数据集分享,ORB-SLAM2,计算机视觉,人工智能,摄像机,slam,机器人
对于此序列,Kinect 指向办公环境中的典型办公桌。此序列仅包含沿 Kinect 主轴的平移运动,而方向(大部分)保持固定。此序列非常适合调试目的,因为它非常简单。
freiburg1_rpy
tum数据集分享,ORB-SLAM2,计算机视觉,人工智能,摄像机,slam,机器人
对于此序列,Kinect 指向办公环境中的典型办公桌。当我们保持位置固定时,我们沿所有三个主轴旋转 Kinect(RPY=滚动-俯仰-偏航)。此序列非常适合调试目的,即检查方向估计/跟踪是否有效。
freiburg2_xyz
tum数据集分享,ORB-SLAM2,计算机视觉,人工智能,摄像机,slam,机器人
此序列包含用于调试翻译的非常干净的数据。Kinect 沿主轴在 x、y 和 z 方向上非常缓慢地移动。慢速相机运动基本上确保数据中(几乎)没有运动模糊和滚动快门效果。
freiburg2_rpy
tum数据集分享,ORB-SLAM2,计算机视觉,人工智能,摄像机,slam,机器人
此序列包含用于调试旋转的非常干净的数据。Kinect 在原地非常缓慢地绕主轴转动(RPY 代表滚动俯仰偏航)。慢速相机运动基本上确保数据中(几乎)没有运动模糊和滚动快门效果。

2、手持式SLAM

freiburg1_360
tum数据集分享,ORB-SLAM2,计算机视觉,人工智能,摄像机,slam,机器人
此序列包含典型办公环境中的 360 度转弯。
freiburg1_floor
tum数据集分享,ORB-SLAM2,计算机视觉,人工智能,摄像机,slam,机器人
简单地扫过办公室的木地板。地板包含几个结孔,使用SIFT或SURF等视觉特征检测器可以轻松跟踪。此外,大部分场景(地板)都是平面的,除了一把办公椅在一段时间后变得可见。
freiburg1_desk
tum数据集分享,ORB-SLAM2,计算机视觉,人工智能,摄像机,slam,机器人
此序列包含典型办公环境中对四张办公桌的多次扫描(在相同的四张办公桌中还有第二个序列称为 desk2)。
freiburg1_desk2
tum数据集分享,ORB-SLAM2,计算机视觉,人工智能,摄像机,slam,机器人
此序列包含典型办公环境中对四张办公桌的多次扫描(类似于办公桌,但第二次录制)。
freiburg1_room
tum数据集分享,ORB-SLAM2,计算机视觉,人工智能,摄像机,slam,机器人
对于这个序列,我们沿着整个办公室的轨迹拍摄。它从四张桌子开始(参见办公桌和办公桌2的顺序),但继续围绕房间的(外)墙,直到环闭合。此序列非常适合评估 SLAM 系统应对闭环的能力。
freiburg2_desk
tum数据集分享,ORB-SLAM2,计算机视觉,人工智能,摄像机,slam,机器人
对于这个序列,我们录制了一个典型的办公室场景,有两张桌子、一台电脑显示器、键盘、电话、椅子等。Kinect 在两个表周围移动,以便闭合循环。在freiburg2_person中也有类似的序列,其中还有一个人坐在其中一张桌子上,他在录制过程中移动了各种物体。
freiburg3_long_office_household
tum数据集分享,ORB-SLAM2,计算机视觉,人工智能,摄像机,slam,机器人
华硕Xtion传感器在家庭和办公室场景中沿着大圆圈移动,具有许多纹理和结构。轨迹的终点与起点重叠,因此有一个大的环闭合。

3、机器人SLAM

freiburg2_pioneer_360
tum数据集分享,ORB-SLAM2,计算机视觉,人工智能,摄像机,slam,机器人
这个序列是从安装在先锋机器人顶部的 Kinect 录制的。先锋当场操纵了(超过)360度转弯。袋子文件还包含机器人的激光扫描和测程数据。

4、结构与纹理

freiburg3_nostructure_texture_far
tum数据集分享,ORB-SLAM2,计算机视觉,人工智能,摄像机,slam,机器人
华硕Xtion沿着纹理平面移动了两米高。纹理具有高度的辨别性,因为它由几张会议海报组成。

5、动态对象

freiburg3_sitting_static
tum数据集分享,ORB-SLAM2,计算机视觉,人工智能,摄像机,slam,机器人
两个人坐在桌子前,说话,打了个手势。华硕Xtion传感器已手动固定到位。该序列旨在评估视觉 SLAM 和测程算法对缓慢移动的动态对象的鲁棒性。
freiburg3_sitting_rpy
tum数据集分享,ORB-SLAM2,计算机视觉,人工智能,摄像机,slam,机器人

两个人坐在桌子前,说话,打了个手势。华硕Xtion传感器已在同一位置沿主轴(滚动-俯仰-偏航)旋转。该序列旨在评估视觉 SLAM 和测程算法对缓慢移动的动态对象的鲁棒性。文章来源地址https://www.toymoban.com/news/detail-780083.html

6、3D 物体重建

freiburg3_teddy
tum数据集分享,ORB-SLAM2,计算机视觉,人工智能,摄像机,slam,机器人
华硕Xtion传感器在不同的高度绕着泰迪熊移动了两轮。泰迪熊有柔软的皮毛,穿着黄色光滑的衬衫。

7、验证文件(无公开的真实值)

freiburg1_desk2_validation
tum数据集分享,ORB-SLAM2,计算机视觉,人工智能,摄像机,slam,机器人
此序列包含典型办公环境中对四张办公桌的多次扫描(类似于办公桌,但第二次录制)。
freiburg3_sitting_rpy_validation
tum数据集分享,ORB-SLAM2,计算机视觉,人工智能,摄像机,slam,机器人
两个人坐在桌子旁,说话,打了个手势。华硕Xtion传感器已在同一位置沿主轴(滚动-俯仰-偏航)旋转。该序列旨在评估视觉 SLAM 和测程算法对缓慢移动的动态对象的鲁棒性。

8、校准文件

freiburg1_rgb_calibration
tum数据集分享,ORB-SLAM2,计算机视觉,人工智能,摄像机,slam,机器人
此序列包含棋盘格校准期间 Kinect 的颜色和深度图像。棋盘角的边长为0.02m。此序列旨在验证校准和重新校准。我们将此序列用于 (1) 查找动作捕捉系统和 Kinect 光学帧之间的外部摄像机参数,以及 (2) 估计动作捕捉系统和 Kinect 之间的时间戳延迟。

到了这里,关于视觉SLAM数据集(一):TUM DataSet的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • ORB-SLAM3 数据集配置与评价

    在ORB-SLAM3运行EuRoC和TUM-VI数据集并作以评价。EuRoC利用微型飞行器(MAV ) 收集的视觉惯性数据集,TUM-VI 是由实验人员手持视觉-惯性传感器收集的数据集。这两个是在视觉SLAM中比较常用的公开数据集,所以测试并加以记录。 1、EuRoC官网下载 从官网下载Euroc数据集,ASL格式 2、新

    2024年02月15日
    浏览(72)
  • 视觉SLAM数据集(一):TUM DataSet

    首先给出数据集下载地址:TUM Dataset Download。 如果你是第一次做实验,建议下载xyz的数据集,因为它的动作相对很小,只包含桌面上的一小部分。一旦成功测试,就可以试试desk数据集,它包含四张桌子和几个闭环。 从Kinect相机拍摄的RGB-D数据集格式如下: 我们提供带时间戳

    2024年02月03日
    浏览(34)
  • ORB-SLAM2的布置(四)ORB-SLAM2构建点云

    高博的工作是对基本 ORB SLAM2 的扩展,基本思想是为每个关键帧构造相应的点云,然后依据从 ORB SLAM2 中获取的关键帧位置信息将所有的点云拼接起来,形成一个全局点云地图。 https://github.com/gaoxiang12/ORBSLAM2_with_pointcloud_map 具体的依赖包括: OpenCV (推荐 3.2 版本) DBoW2 和 g2o(源

    2024年02月05日
    浏览(60)
  • ubuntu18.04配置ORB-SLAM3并跑EuRoC数据集(单目)

    1.1  C++11 or C++0x Compiler 安装 新建一个终端(新建终端的快捷键是Ctrl+Alt+T) 输入以下代码 sudo apt-get install gcc sudo apt-get install g++ sudo apt-get install build-essential sudo apt-get install cmake 1.2  Pangolin 安装 Pangolin的官方教程地址:https://github.com/stevenlovegrove/Pangolin 安装Pangolin 1.2.1下载

    2023年04月20日
    浏览(57)
  • Ubuntu18.04版本下配置ORB-SLAM3和数据集测试方法

    使用:VMware Workstation Pro 虚拟机系统版本是:Ubuntu 18.04.06 虚拟机内存:8g(若为4g大小,很容易出现后文中ORB-SLAM3编译时会出现的内存问题) 虚拟机存储:50g 若是配置完发现存储空间不足,可以参考这篇博客进行清理: 下载配置技巧:Ubuntu18.04安装vmware-tools解决无法复制粘贴

    2024年02月09日
    浏览(56)
  • Ubuntu18.04:ORB-SLAM3使用数据集构建地图和保存点云地图

    在前一篇文章的Ubuntu18.04版本下配置ORB-SLAM3和数据集测试方法中,Ubuntu18.04的系统下成功配置完成了ORB-SLAM3,在ORB_SLAM3目录下输入命令: 即可在线构建地图,但是即使程序运行完成,也看不见地图文件,它在哪里? 原因:ORB-SLAM3并不会自己保存构建的点云地图文件。 若是想要

    2024年02月09日
    浏览(149)
  • ORB-SLAM 论文阅读

    论文链接 ORB-SLAM 0. Abstract 本文提出了 ORB-SLAM,一种基于特征的单目同步定位和建图 (SLAM) 系统 该系统对严重的运动杂波具有鲁棒性,允许宽基线环路闭合和重新定位,并包括全自动初始化 选择重建的点和关键帧的适者生存策略具有出色的鲁棒性,并生成紧凑且可跟踪的地图

    2024年01月22日
    浏览(59)
  • SLAM ORB-SLAM2(20)查找基础矩阵

    在 《SLAM ORB-SLAM2(12)估算运动并初始地图点》 的 2.3. 计算H矩阵和F矩阵过程 中

    2024年03月17日
    浏览(60)
  • 基于ORB-SLAM3库搭建SLAM系统

    博客地址:https://www.cnblogs.com/zylyehuo/ ORB-SLAM3配置及安装教程 ORB-SLAM3配置安装及运行 Win 11pro VMware 17Pro Ubuntu 18.04 Eigen3 Pangolin Opencv3.4.3 ORB-SLAM3源码: https://github.com/UZ-SLAMLab/ORB_SLAM3 安装 Pangolin 需要的依赖工具 安装 Pangolin 官网下载地址:https://opencv.org/releases/page/5/ 下载之后放在

    2024年02月03日
    浏览(50)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包