ORB-SLAM3整体流程详解

这篇具有很好参考价值的文章主要介绍了ORB-SLAM3整体流程详解。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

0. 简介

在之前,作者曾经转过一篇《一文详解ORB-SLAM3》的文章。那篇文章中提到了ORB-SLAM3是一个支持视觉、视觉加惯导、混合地图的SLAM系统,可以在单目,双目和RGB-D相机上利用针孔或者鱼眼模型运行。与ORB-SLAM2相比,ORB-SLAM3在处理大视差和长时间未观测到的场景时效果更好。它还提供了更准确的帧间运动估计和更快的处理速度。此外,ORB-SLAM3还支持更多的传感器,包括RGB-D摄像头和车载LIDAR。ORB-SLAM3的代码结构也比ORB-SLAM2更加简洁,使得它更容易理解和扩展。

1. 主要贡献

一个单目和双目的视觉惯导SLAM系统:全部依赖于MAP(最后后验概率估计),即使是在IMU初始化的时候。

高召回率的场景重识别算法:DBoW2需要匹配三个连续的关键帧,太慢了。作者的方法是:候选的关键帧第一次就进行几何一致性检测,然后利用三个共视的关键帧进行局部的一致性检验,这种策略提升了召回率,并简化了数据关联,从而提高了地图准确性,但计算成本变高。

第一个可以解决纯视觉或者视觉惯导的完整的混合地图的SLAM系统。在单目或者双目的系统中,Atlas代表的是一系列不连续的地图,而且可以把他们应用到所有的建图过程中:场景重识别、相机重定位、闭环检测和精确的地图融合。这就允许地图是在不同的时间构建的(增量的SLAM系统),纯视觉的Atlas是参考的2019年IROS的一篇文章:ORBSLAM-atlas: a robust and accurate multi-map system,本文又添加了视觉惯导的混合地图系统来实现场景重识别。

抽象的相机表示:使SLAM系统与所使用的相机模型无关。并允许通过提供其投影,非投影和Jacobian函数来添加新模型我们提供了针孔和鱼眼模型的实现。

2. ORB-SLAM2 和 ORB-SLAM3 相关改进代码汇总(截止2023.1.30日)

这部分可以看一下作者的《使用ORBSLAM2进行kineticV2稠密建图,实时转octomap建图以及导航》这篇文章。这里来汇总一下2,3中常见的扩展,算是一个大全吧

  1. https://github.com/gaoxiang12/ORBSLAM2_with_pointcloud_map
    高翔实现的添加稠密点云地图
    orb_slam3,slam,数码相机,人工智能,计算机视觉
  2. https://github.com/xiaobainixi/ORB-SLAM2_RGBD_DENSE_MAP
    orb_slam3,slam,数码相机,人工智能,计算机视觉
  3. https://github.com/gaoxiang12/ORB-YGZ-SLAM

使用SVO中直接法来跟踪代替耗时的特征点提取匹配,在保持同样精度的情况下,是原始ORB-SLAM2速度的3倍
orb_slam3,slam,数码相机,人工智能,计算机视觉
4. https://github.com/gaoxiang12/ygz-stereo-inertial
双目VIO版本,加入了LK光流和滑动窗口BA优化
orb_slam3,slam,数码相机,人工智能,计算机视觉
5. https://github.com/jingpang/LearnVIORB
VI-ORB-SLAM2
orb_slam3,slam,数码相机,人工智能,计算机视觉
6. https://github.com/lsyads/fisheye-ORB-SLAM
添加了支持鱼眼
orb_slam3,slam,数码相机,人工智能,计算机视觉
7. https://github.com/AlejandroSilvestri/osmap
添加保存和导入地图功能
orb_slam3,slam,数码相机,人工智能,计算机视觉
8. https://github.com/Jiankai-Sun/ORB_SLAM2
添加保存和导入地图功能
orb_slam3,slam,数码相机,人工智能,计算机视觉
9. https://github.com/AlejandroSilvestri/Osmap-viewer
添加了地图可视化
orb_slam3,slam,数码相机,人工智能,计算机视觉
10. https://github.com/atlas-jj/ORB_Line_SLAM

添加了线特征
orb_slam3,slam,数码相机,人工智能,计算机视觉
11. https://github.com/maxee1900/RGBD-PL-SLAM
添加了点线融合
orb_slam3,slam,数码相机,人工智能,计算机视觉
12. https://github.com/ivalab/gf_orb_slam2
使用了一种更好的特征选择方法
orb_slam3,slam,数码相机,人工智能,计算机视觉
13. https://github.com/Ewenwan/ORB_SLAM2_SSD_Semantic

动态语义SLAM 目标检测+VSLAM+光流/多视角几何动态物体检测+octomap地图+目标数据库
orb_slam3,slam,数码相机,人工智能,计算机视觉
14. https://github.com/Eralien/TE-ORB_SLAM2
用YOLO v3的语义信息来增加跟踪性能
orb_slam3,slam,数码相机,人工智能,计算机视觉
15. https://github.com/bijustin/YOLO-DynaSLAM

orb_slam3,slam,数码相机,人工智能,计算机视觉
16. https://github.com/qixuxiang/orb-slam2_with_semantic_label

提出了一种构建3D密集语义图的方法,该方法同时利用YOLOv3[3]的2D图像标签和3D几何信息
orb_slam3,slam,数码相机,人工智能,计算机视觉
17. https://github.com/VisionerTech/ORB_SLAM2_Unity
ORB-SLAM2在unity中仿真
orb_slam3,slam,数码相机,人工智能,计算机视觉
18. https://github.com/thien94/ORB_SLAM2_CUDA

ORB-SLAM2使用CUDA加速
orb_slam3,slam,数码相机,人工智能,计算机视觉
19. https://github.com/XinkeAE/Active-ORB-SLAM2
ORB-SLAM2加入距离最优路径规划器利用该模型来约束路径,使得每个姿势中相关联的地图点的数量高于阈值。
orb_slam3,slam,数码相机,人工智能,计算机视觉

  1. https://github.com/xiefei2929/ORB_SLAM3-RGBD-Inertial
    增加了RGBD-IMU的运行模式和ROS接口,增加了单目IMU和双目IMU的ROS接口,替换了词典为二进制格式,加载速度更快。依据ORB_SLAM3重写了RGBD-IMU的ROS接口,避免出现队列拥塞,提供了Kinect for Azure的参数文件
    orb_slam3,slam,数码相机,人工智能,计算机视觉

  2. https://github.com/TUMFTM/ORB_SLAM3_RGBL

将激光雷达数据集成到ORB-SLAM3中

orb_slam3,slam,数码相机,人工智能,计算机视觉

  1. https://github.com/zhouyong1234/ORB-SLAM3-GRID-MAP

将ORB-SLAM3生成的稀疏地图转化为2D栅格地图,用于机器人导航
orb_slam3,slam,数码相机,人工智能,计算机视觉
23. https://github.com/cpymaple/ORB-SLAM3-YOLOv3
在ORB-SLAM3中使用深度学习YOLOv3
orb_slam3,slam,数码相机,人工智能,计算机视觉

  1. https://github.com/charbelias24/3dMapSLAM
    使用ORB-SLAM3创建周围环境的分段3D八进制图,可以在八进制图中删除或添加特定的分段对象
    orb_slam3,slam,数码相机,人工智能,计算机视觉
  2. https://github.com/TUMFTM/ORB_SLAM3_RGBL
    一种基于RGB-D模式将3D激光雷达深度信息集成到现有ORBSLAM3中的新方法。我们提出并比较了两种深度图生成方法:传统的计算机视觉方法,即逆膨胀操作和基于监督深度学习的方法。通过添加直接读取激光雷达点云的所谓RGB-L(LiDAR)模式,将前者直接集成到ORB-SLAM3框架中。
    orb_slam3,slam,数码相机,人工智能,计算机视觉

3. 主要结构

由于网上对ORB-SLAM3的内容很多了,这里打算换一个形式,如果这里大段重复别人的内容不是很好,这里换一种形式,即用简单的话语+链接的形式来完成整个ORB-SLAM3的介绍,这里的图是以单目融合IMU的文件(Mono_inertial_tum_vi.cc)为例的。但是我们需要注意的是我们一般会使用ros作为 warpper,所以我们会使用ros_mono_inertial.cc完成理解
orb_slam3,slam,数码相机,人工智能,计算机视觉

4. 主函数main

(1)首先是ros系统的初始化,以及启动相关线程

ros::init(argc, argv, "Mono_Inertial");
ros::NodeHandle n("~");

(2)创建SLAM系统,system会初始化所有的系统进程,并且准备好生成帧,此处会调用system的构造函数System::System(),具体见System.cc

  // Create SLAM system. It initializes all system threads and gets ready to process frames.
  ORB_SLAM3::System SLAM(argv[1],argv[2],ORB_SLAM3::System::IMU_MONOCULAR,true);

(3)准备捕获图像,并用SLAM类进行初始化

  ImuGrabber imugb;
  ImageGrabber igb(&SLAM,&imugb,bEqual); // TODO

//ImageGrabber类如下
class ImageGrabber
{
public:
    ImageGrabber(ORB_SLAM3::System* pSLAM, ImuGrabber *pImuGb, const bool bClahe): mpSLAM(pSLAM), mpImuGb(pImuGb), mbClahe(bClahe){}//类的初始化

    void GrabImage(const sensor_msgs::ImageConstPtr& msg);//捕获图像,并进行跟踪
    cv::Mat GetImage(const sensor_msgs::ImageConstPtr &img_msg);
    void SyncWithImu();

    queue<sensor_msgs::ImageConstPtr> img0Buf;
    std::mutex mBufMutex;
   
    ORB_SLAM3::System* mpSLAM;
    ImuGrabber *mpImuGb;

    const bool mbClahe;
    cv::Ptr<cv::CLAHE> mClahe = cv::createCLAHE(3.0, cv::Size(8, 8));
};

(4)订阅话题,获取彩色图像,当接收到图像后便会运行此函数,调用ImageGrabber中的GrabImage函数。

如果运行程序时出现没有画面的情形,大概率是因为话题名称不对应,先使用rostopic list或者rviz查看发布的话题,然后更改下面代码中的话题名称。

  // Maximum delay, 5 seconds
  ros::Subscriber sub_imu = n.subscribe("/imu", 1000, &ImuGrabber::GrabImu, &imugb); 
  ros::Subscriber sub_img0 = n.subscribe("/camera/image_raw", 100, &ImageGrabber::GrabImage,&igb);

(5)在回调函数中的GrabImage函数作用是,将订阅获取的ros image message转换为矩阵类型,并将rgb图像以及时间戳参数压入img0Buf,并将其传递给System中的TrackStereo函数,进行跟踪。这里会完成和IMU传感器对齐。

void ImageGrabber::SyncWithImu()
{
  while(1)
  {
    cv::Mat im;
    double tIm = 0;
    if (!img0Buf.empty()&&!mpImuGb->imuBuf.empty())
    {
      tIm = img0Buf.front()->header.stamp.toSec();
      if(tIm>mpImuGb->imuBuf.back()->header.stamp.toSec())
          continue;
      {
      this->mBufMutex.lock();
      im = GetImage(img0Buf.front());
      img0Buf.pop();
      this->mBufMutex.unlock();
      }

      vector<ORB_SLAM3::IMU::Point> vImuMeas;
      mpImuGb->mBufMutex.lock();
      if(!mpImuGb->imuBuf.empty())
      {
        // Load imu measurements from buffer
        vImuMeas.clear();
        while(!mpImuGb->imuBuf.empty() && mpImuGb->imuBuf.front()->header.stamp.toSec()<=tIm)
        {
          double t = mpImuGb->imuBuf.front()->header.stamp.toSec();
          cv::Point3f acc(mpImuGb->imuBuf.front()->linear_acceleration.x, mpImuGb->imuBuf.front()->linear_acceleration.y, mpImuGb->imuBuf.front()->linear_acceleration.z);
          cv::Point3f gyr(mpImuGb->imuBuf.front()->angular_velocity.x, mpImuGb->imuBuf.front()->angular_velocity.y, mpImuGb->imuBuf.front()->angular_velocity.z);
          vImuMeas.push_back(ORB_SLAM3::IMU::Point(acc,gyr,t));
          mpImuGb->imuBuf.pop();
        }
      }
      mpImuGb->mBufMutex.unlock();
      if(mbClahe)
        mClahe->apply(im,im);

      mpSLAM->TrackMonocular(im,tIm,vImuMeas);
    }

    std::chrono::milliseconds tSleep(1);
    std::this_thread::sleep_for(tSleep);
  }
}

5. 视觉SLAM图像输入以及初始地图构建

上面一节展示了这幅图,我们也将第一列给讲述完毕了,当然是使用ROS的方式,这里也可以使用opencv等操作,避免使用ROS。下面我们将开始介绍TrackMonocular(im,tIm,vImuMeas);这部分的内容。
orb_slam3,slam,数码相机,人工智能,计算机视觉
这部分主要完成的是将图像传到SLAM系统中并进行跟踪,具体可以参考ORB-SLAM3 细读单目初始化过程(上)和ORB_SLAM3原理源码解读系列(1)—— ORB特征点提取,这一章节中主要介绍了Frame部分,主要完成工作是特征点提取,涉及到的知识点其实很多,包括图像金字塔、特征点均匀化、四叉树算法分发特征点、特征点方向计算等等。然后超详细解读ORB-SLAM3单目初始化(下篇)和ORB_SLAM3原理源码解读系列(2)——单目初始化这一讲主要讲述了Tracking::Track()。Tracking部分作用论文已提及,包含输入当前帧、初始化、相机位姿跟踪、局部地图跟踪、关键帧处理、姿态更新与保存等。除此以外,单目SLAM系统需要设计专门的策略来生成初始化地图(局部建图),这也是为什么代码中单独设计一个CreateInitialMapMonocular()函数来实现单目初始化,在文章ORB-SLAM3 单目地图初始化(终结篇)、ORB_SLAM3原理源码解读系列(3)——创建单目初始化地图和ORB-SLAM3源码阅读笔记1:Tracking、LocalMapping和LoopClosing三线程之间的关系里面有着详细的解释,这里作者建议参照着代码注释与文章来进行解析。文章来源地址https://www.toymoban.com/news/detail-741526.html

6. System完成多地图以及闭环检测

…详情请参照古月居

到了这里,关于ORB-SLAM3整体流程详解的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • Ubuntu20.04的ROS环境安装ORB-SLAM3详解

    视觉SLAM实验要在Ubuntu20.04系统上使用ROS跑ORB-SLAM3,熟悉一下特征点法的SLAM,把安装过程总结记录下来。 系统 版本 ubuntu 20.04 Pangolin 0.6 Eigen 3 Opencv 4.2 usb_cam 执行命令更新源 1、ROS简介 ROS全称Robot Operating System(机器人操作系统) ROS是适用于机器人的开源元操作系统 ROS集成了大

    2023年04月21日
    浏览(68)
  • 【视觉SLAM】ORB-SLAM2S: A Fast ORB-SLAM2 System with Sparse Optical Flow Tracking

    Citations: Y. Diao, R. Cen, F. Xue.ORB-SLAM2S: A Fast ORB-SLAM2 System with Sparse Optical Flow Tracking[C].2021 13th International Conference on Advanced Computational Intelligence (ICACI). Wanzhou,China.2021:160-165. Keywords: Visualization,Simultaneous localization and mapping,Cameras,Real-time systems,Aircraft navigation,Central Processing Unit,Traje

    2023年04月08日
    浏览(64)
  • ORB-SLAM 论文阅读

    论文链接 ORB-SLAM 0. Abstract 本文提出了 ORB-SLAM,一种基于特征的单目同步定位和建图 (SLAM) 系统 该系统对严重的运动杂波具有鲁棒性,允许宽基线环路闭合和重新定位,并包括全自动初始化 选择重建的点和关键帧的适者生存策略具有出色的鲁棒性,并生成紧凑且可跟踪的地图

    2024年01月22日
    浏览(57)
  • 基于ORB-SLAM3库搭建SLAM系统

    博客地址:https://www.cnblogs.com/zylyehuo/ ORB-SLAM3配置及安装教程 ORB-SLAM3配置安装及运行 Win 11pro VMware 17Pro Ubuntu 18.04 Eigen3 Pangolin Opencv3.4.3 ORB-SLAM3源码: https://github.com/UZ-SLAMLab/ORB_SLAM3 安装 Pangolin 需要的依赖工具 安装 Pangolin 官网下载地址:https://opencv.org/releases/page/5/ 下载之后放在

    2024年02月03日
    浏览(47)
  • SLAM ORB-SLAM2(20)查找基础矩阵

    在 《SLAM ORB-SLAM2(12)估算运动并初始地图点》 的 2.3. 计算H矩阵和F矩阵过程 中

    2024年03月17日
    浏览(56)
  • SLAM ORB-SLAM2(22)分解基础矩阵

    在 《SLAM ORB-SLAM2(12)估算运动并初始地图点》 中了解到 估算两帧间相对运动过程: 记录特征点对的匹配关系 RANSAC 采样准备 计算H矩阵或者F矩阵 判断并选取模型求位姿过程 在

    2024年04月15日
    浏览(41)
  • ORB_SLAM3 LocalMapping中CreateNewMapPoints

    CreateNewMapPoints 在 新插入的关键帧 的 邻近的关键帧 中,通过 词袋模型 与新插入关键帧中 没有匹配的 ORB特征进行匹配,并抛弃其中 不满足对极约束 的匹配点对,接着通过 三角化 生成地图点 GetBestCovisibilityKeyFrames :找出与当前关键帧 共视程度最高前nn帧 vpNeighKFs 如果是 I

    2024年02月01日
    浏览(56)
  • ORB_SLAM2运行KITTI数据集

            在前文我们已经安装运行了ORB_SLAM2,下载和编译(包括报错)在文章: ORB_SLAM2下载编译及运行EuRoC数据集_浅梦语11的博客-CSDN博客_euroc数据集下载         并且我们使用运行了EuRoC数据集。今天利用框架运行KITTI数据集。         注意 :如果没有运行成功EuRoC数据

    2024年02月08日
    浏览(36)
  • 【ORB_SLAM2算法中逐函数讲解】

    在ORB-SLAM2算法中, TrackReferenceKeyFrame() 函数主要用于根据参考关键帧(Reference KeyFrame)来进行相机位姿估计。这个函数在跟踪过程中起到关键作用,它使用当前帧与参考关键帧之间的匹配点进行位姿估计,从而实现视觉里程计的功能。以下是这个函数中的主要操作: 计算当前

    2023年04月25日
    浏览(38)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包