realsense D435i 实现外部时钟触发硬件同步多相机数据采集

这篇具有很好参考价值的文章主要介绍了realsense D435i 实现外部时钟触发硬件同步多相机数据采集。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。


前言

最近有一个调试D435i相机的工作,需要使得三个相机能够完成硬件触发的同步,具体来说,就是有一个固定频率的外部脉冲信号,使得三个相机能够根据外部脉冲信号的硬件触发完成双目图片、深度图片、彩色图片、IMU数据的实时响应采集,因为外部脉冲信号是通过一个精确的时间模块发出的,因此将采集的图片时的系统时间记录下来后,和时间模块发脉冲时间做一个时间对齐(关键是一个脉冲对应一个数据,避免丢失与错位的问题,错位问题还需要验证),计算硬件脉冲传递时间和相机响应时间的差值(这样通过精确时钟时间的推理就能得到更靠近真实的图片采集时间),就能够得到一个图片采集的精确时间。
总之,关键的检查点就是查看多个相机是不是每一个都是根据脉冲精确采集图片。我通过一个小实验检测程序是否好用:通过单片机发送固定脉冲数,查看是否保存相同数量图片。最后程序实现的效果就是能够从多个相机处采集硬件同步的图片数据和IMU数据。
完整代码可以从我的github下载:https://github.com/ser666/D435i_multicam_hardware_sync.git


一、背景知识

1.工作环境

我的实验环境基于ubuntu20.04,并且需要配置好C++编译环境与安装好librealsense SDK库,这方面CSDN中有较多博客分享,不再赘述。

安装librealsenseSDK可参考:Ubuntu20.04LTS下安装Intel Realsense D435i驱动与ROS包 :https://blog.csdn.net/wanghq2013/article/details/123325671

2.D435i硬件同步

D435i默认模式下是根据代码设置的帧率进行图片传输,有15帧、30帧等几种模式,但我们的实验要求能够统一管理时间,通过外部硬件触发的好处是同时进行数据采集,能够使得所有传感器采集数据的时间对齐。D435i有多相机模式,支持外部硬件同步。多相机模式下有master和slave两种模式,官方主要介绍的多相机指一个主机多个从机,多个从机和主机进行同步,而我们是通过外部时钟作为“主机”时间,因此所有相机都设为从机模式。D435i硬件同步引脚情况如图所示。
realsense 同步验证,SLAM,数码相机,iot,opencv,计算机视觉,ubuntu,github

二、需求实现

1.多相机硬件同步触发

(1) 多线程连接多相机

用一个程序完成任意数量相机的连接,因此使用多线程,传递设备id号和数据保存位置到线程中去,因为设置了线程休眠1秒整个程序每连接一个相机需要多一秒初始化时间。

(2) 相机配置

硬件同步需要设置slave模式,并且同样需要配置相机向电脑传输数据流的速度。(这里我的理解是相机是向电脑传输固定速率的帧数据,程序里我通过检测帧序号进行筛选,硬件触发后帧序号才会改变,因此判断传过来的这一帧是不是硬件触发造成的,所以硬件触发的时钟速率需要小于相机上传到电脑的速率)
需要注意的一点是,双目图片采集,主动结构光会导致双目图片产生小白点,主动结构光的主要作用是做纹理增强,在光线不足的场景下仍然能够得到深度图片,关闭也能得到深度图片但是就丧失了增强效果。为了得到符合光度不变假设的双目灰度图片,我把主动结构光的功能关闭,因此深度图会不够准确。

std::cout << "Device (Thread) ID: " << dev_id << std::endl;
 std::string serial = dev.get_info(RS2_CAMERA_INFO_SERIAL_NUMBER);
 std::cout << "Camera with serial number: " << serial << std::endl;

 auto advanced_dev = dev.as<rs400::advanced_mode>();
 auto advanced_sensors = advanced_dev.query_sensors();

 bool depth_found = false;
 bool color_found = false;
 bool infrared1_found = false;
 bool infrared2_found = false;
 rs2::sensor depth_sensor;
 rs2::sensor color_sensor;
 rs2::sensor infrared1_sensor;
 rs2::sensor infrared2_sensor;


 for (auto&& sensor : advanced_sensors) {
     std::string module_name = sensor.get_info(RS2_CAMERA_INFO_NAME);
     std::cout << module_name << std::endl;

     if (module_name == "Stereo Module") {
         depth_sensor = sensor;
         depth_found = true;
     } else if (module_name == "RGB Camera") {
         color_sensor = sensor;
         color_found = true;
     }else if (module_name == "RGB Camera") {

     }
 }

 if (!(depth_found && color_found)) {
     std::cout << "Unable to find both stereo and color modules" <<
         std::endl;
 }
 
 depth_sensor.set_option(RS2_OPTION_ENABLE_AUTO_EXPOSURE, 0);
 depth_sensor.set_option(RS2_OPTION_EXPOSURE, 8500); // microseconds
 depth_sensor.set_option(RS2_OPTION_GAIN, 16);
 depth_sensor.set_option(RS2_OPTION_FRAMES_QUEUE_SIZE, 1);
 depth_sensor.set_option(RS2_OPTION_EMITTER_ENABLED, 0);//关闭主动结构光

 // RGB sync doesn't work, need to use depth as master.
     std::cout << "Setting " << dev_id << " to slave!" << std::endl;
     depth_sensor.set_option(RS2_OPTION_INTER_CAM_SYNC_MODE, 4);

 color_sensor.set_option(RS2_OPTION_ENABLE_AUTO_EXPOSURE, 0);
 color_sensor.set_option(RS2_OPTION_EXPOSURE, 100); // 1/10 ms (10)
 color_sensor.set_option(RS2_OPTION_GAIN, 64);
 color_sensor.set_option(RS2_OPTION_FRAMES_QUEUE_SIZE, 1);

 rs2::pipeline pipe;
 rs2::config cfg;
 cfg.enable_device(serial);
 cfg.enable_stream(RS2_STREAM_COLOR, 848, 480, RS2_FORMAT_BGR8, 30);
 cfg.enable_stream(RS2_STREAM_INFRARED, 1, 848, 480, RS2_FORMAT_Y8, 30);
 cfg.enable_stream(RS2_STREAM_INFRARED, 2, 848, 480, RS2_FORMAT_Y8, 30);
 cfg.enable_stream(RS2_STREAM_DEPTH, 848, 480, RS2_FORMAT_Z16, 30);
 cfg.enable_stream(RS2_STREAM_ACCEL, RS2_FORMAT_MOTION_XYZ32F);
 cfg.enable_stream(RS2_STREAM_GYRO, RS2_FORMAT_MOTION_XYZ32F);

 rs2::pipeline_profile profile = pipe.start(cfg);

(3) 帧获取与处理

主要流程包括等待帧输入,检测到帧输入后判断帧序号,这个帧序号是从深度帧中得到的,因为D435i相机只有深度图像数据是可以通过硬件外部时钟触发的,因为以深度时间为基准。如果是新的帧序号,则接着完成数据保存等操作。

rs2::frameset frames = pipe.wait_for_frames();
std::string timestamp_now = GetCurrentTimeStamp(1);
rs2_vector accel_sample;
rs2_vector gyro_sample;

// Get imu data
if (rs2::motion_frame accel_frame = frames.first_or_default(RS2_STREAM_ACCEL))
{
    accel_sample = accel_frame.get_motion_data();
}
if (rs2::motion_frame gyro_frame = frames.first_or_default(RS2_STREAM_GYRO))
{
    gyro_sample = gyro_frame.get_motion_data();
}

rs2::frame color_frame = frames.get_color_frame();
rs2::frame left_frame = frames.get_infrared_frame(1);
rs2::frame right_frame = frames.get_infrared_frame(2);
rs2::frame depth_frame = frames.get_depth_frame();
frame_counter = depth_frame.get_frame_number();
if(lastnum==frame_counter)
continue;

2.数据组织与保存

自动创建数据文件夹关键函数

//定义一个结构体,代表 linux里目录分层符号 ‘/’,再后面std::find_if 查找符号的函数中会用到
struct pathseperator
{
    pathseperator ()
    { }

    bool
    operator () (char ch) const
    {
        return ch == '/';
    }
};

//检查路径是否已创建
int checkFolderExist(std::string const & name)
{
    if (access(name.c_str (), 0))
        return -1;
    return 0;
}

int checkandmkdir(std::string path_input)
{
    std::string sep = "/";
    //第一个参数为需要创建的全路径
   std::string target = std::string(path_input);
   
   //通过查找 / 的方式将每层路径拆开 
    std::vector<std::string> container;
    std::string::const_iterator const end = target.end ();
    std::string::const_iterator it = target.begin ();
    pathseperator pathsep = pathseperator ();
    while (it != end)
    {
        std::string::const_iterator sep = std::find_if (it, end, pathsep);
        container.push_back (std::string (it, sep));
        it = sep;
        if (it != end)
            ++it;
    }
	//将拆解的路径重新一层一层的拼接,并调用系统函数mkdir创建
    std::string path;
    for(int i=1; i<container.size(); i++) {
        path += sep;
        path += container[i];
        if(checkFolderExist(path) == 0) {
            continue;
        }
        int res = mkdir(path.c_str (), 0777);
    }
    return 0;
}

3.打印系统时间戳

获取ms级系统时间函数

//time_stamp_type - 需要获取的时间戳的级别,0表示秒级时间戳,1表示毫秒级时间戳,2表示微秒级时间戳,3表示纳秒级时间戳
std::string GetCurrentTimeStamp(int time_stamp_type = 0)
{
	std::chrono::system_clock::time_point now = std::chrono::system_clock::now();

	std::time_t now_time_t = std::chrono::system_clock::to_time_t(now);
	std::tm* now_tm = std::localtime(&now_time_t);

	char buffer[128];
	strftime(buffer, sizeof(buffer), "%F %T", now_tm);

	std::ostringstream ss;
	ss.fill('0');

	std::chrono::milliseconds ms;
	std::chrono::microseconds cs;
	std::chrono::nanoseconds ns;
	
	switch (time_stamp_type)
	{
	case 0:
		ss << buffer;
		break;
	case 1:
		ms = std::chrono::duration_cast<std::chrono::milliseconds>(now.time_since_epoch()) % 1000;
		ss << buffer << ":" << ms.count();
		break;
	case 2:
		ms = std::chrono::duration_cast<std::chrono::milliseconds>(now.time_since_epoch()) % 1000;
		cs = std::chrono::duration_cast<std::chrono::microseconds>(now.time_since_epoch()) % 1000000;
		ss << buffer << ":" << ms.count() << ":" << cs.count() % 1000;
		break;
	case 3:
		ms = std::chrono::duration_cast<std::chrono::milliseconds>(now.time_since_epoch()) % 1000;
		cs = std::chrono::duration_cast<std::chrono::microseconds>(now.time_since_epoch()) % 1000000;
		ns = std::chrono::duration_cast<std::chrono::nanoseconds>(now.time_since_epoch()) % 1000000000;
		ss << buffer << ":" << ms.count() << ":" << cs.count() % 1000 << ":" << ns.count() % 1000;
		break;
	default:
		ss << buffer;
		break;
	}

	return ss.str();
}

三、实验测试

1.固定脉冲测试

(1)主机链接相机
realsense 同步验证,SLAM,数码相机,iot,opencv,计算机视觉,ubuntu,github
realsense 同步验证,SLAM,数码相机,iot,opencv,计算机视觉,ubuntu,github
(2)单片机向三个相机发送一百个10HZ脉冲,主机收到图片
realsense 同步验证,SLAM,数码相机,iot,opencv,计算机视觉,ubuntu,github
(3)程序自动创建文件夹并按格式保存收到的图片
realsense 同步验证,SLAM,数码相机,iot,opencv,计算机视觉,ubuntu,github

2.实车测试

总结

代码仍有小bug,比如IMU数据保存第一帧总是落后图片数据一帧;多个相机启动顺序不同初始化时间导致每个相机第一帧数据帧序号不一样;虽然静止初始化一段时间后再进行数据采集不影响最终数据准确性,但是总归是有一点瑕疵,以后有时间再完善一下。
完整代码可以从我的github下载:https://github.com/ser666/D435i_multicam_hardware_sync.git文章来源地址https://www.toymoban.com/news/detail-793326.html

到了这里,关于realsense D435i 实现外部时钟触发硬件同步多相机数据采集的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • Realsense D435i Yolov5目标检测实时获得目标三维位置信息

    - Colorimage: - Colorimage and depthimage: 1.一个可以运行YOLOv5的python环境 2.一个realsense相机和pyrealsense2库 在下面两个环境中测试成功 win10 python 3.8 Pytorch 1.10.2+gpu CUDA 11.3 NVIDIA GeForce MX150 ubuntu16.04 python 3.6 Pytorch 1.7.1+cpu 修改模型配置文件,以yolov5s为例。 如果使用自己训练的模型,需要进

    2024年02月04日
    浏览(42)
  • Ubuntu18.04安装配置使用Intel RealSense D435i深度相机以及在ROS环境下配置

    最近因为学习开发需要,要开始接触一些视觉相关的内容,拿到了一个Inter 的D435i深度相机,记录一下在Ubuntu18环境下配置SDK 包的历程 注意 : Intel官方最新版的librealsense版本与ROS1的ROS Wrapper是 版本不一致的 ,且ROS Wrapper支持的是较低版本的SDK ,具体可以去网站查看 如果完全

    2024年02月07日
    浏览(37)
  • ubuntu18.04安装Realsense D435i相机SDK及realsense-ros记录,为后期运行yolo v5作准备

    写在前面 :一定要注意各个版本之间的匹配问题,否则会报各种错误。 例如ROS版本和librealsense SDK版本之间的对应关系,以及realsense-ros(Wrapper)与librealsense SDK之间的对应关系 。 系统:ubuntu18.04 ros: melodic 附上Intel® RealSense github网站: https://github.com/IntelRealSense 以及安装教程

    2024年02月05日
    浏览(40)
  • (已修正精度 1mm左右)Realsense d435i深度相机+Aruco+棋盘格+OpenCV手眼标定全过程记录

    最近帮别人做了个手眼标定,然后我标定完了大概精度能到1mm左右。所以原文中误差10mm可能是当时那个臂本身的坐标系有问题。然后用的代码改成了基于python的,放在下面。 新来的小伙伴可以只参考前面的代码就可以完成标定了。 有问题的话可以留言,一起交流~ 手眼标定

    2024年02月04日
    浏览(32)
  • 【D435i深度相机YOLO V5结合实现目标检测】

    参考:Ubutntu下使用realsense d435i(三):使用yolo v5测量目标物中心点三维坐标 欢迎大家阅读2345VOR的博客【D435i深度相机YOLO V5结合实现目标检测】🥳🥳🥳 2345VOR鹏鹏主页: 已获得CSDN《嵌入式领域优质创作者》称号👻👻👻,座右铭:脚踏实地,仰望星空🛹🛹🛹 本文章属于

    2024年02月08日
    浏览(44)
  • python实现d435i深度相机测量两点之间的距离

    本文介绍python方法实现intel公司realsense系列d435i深度相机测量彩色图像上两点之间的距离。 原理很简单,就是将相机获得的彩色图像流与深度流对齐,这样彩色图像上的每个像素就会对应一个深度值,作为z坐标,然后通过相机内参获得该像素的x坐标和y坐标。我们获得的x、

    2024年02月16日
    浏览(27)
  • 【深度相机D435i】Windows+Ubuntu下调用D435i利用Python读取、保存RGB、Depth图片

    最近组里面的项目需要用到D435i深度相机采集深度图片,所以记录一下在Windows+Ubuntu的环境下使用D435i深度相机的流程,以及如何利用python读取、保存常见的RGB、Depth图片。 D435i 在小巧外形中采用英特尔模块和视觉处理器,是一个功能强大的一体产品,可与可定制软件配合使用

    2024年02月02日
    浏览(28)
  • d435i 相机和imu标定

    使用 imu_utils 功能包标定 IMU,由于imu_utils功能包的编译依赖于code_utils,需要先编译code_utils,主要参考 相机与IMU联合标定_熊猫飞天的博客-CSDN博客 Ubuntu20.04编译并运行imu_utils,并且标定IMU_学无止境的小龟的博客-CSDN博客 1.1 编译 code_utils 创建工作空间 1.1.1 修改 CMakeLists.txt 文件

    2024年02月09日
    浏览(44)
  • ROS D435I识别目标并获取深度数据

    使用D435I相机,并基于ros获取到彩色图像和匹配后的深度数据,通过OPENCV对彩色图像进行目标识别,得到目标所在的像素范围,随后得到深度数据 重点在于:转换ros图像数据到opencv格式,得到目标像素点的实际深度值 d435i启动与修改 使用上述指令启动d435i,可以在里面进行分

    2024年02月10日
    浏览(32)
  • 使用D435i相机录制TUM格式的数据集

    本文写于2023年3月14日。 D435i相机的rgb图像与depth图像的像素没有对齐,在此记录一下如何像素对齐 Ubuntu18.04 + ROS melodic 这一步需要使用 InterRealSenseD435i SDK2 ,可以参考此链接安装。 打开 Intel RealSense Viewer 。设置 Depth Stream 以及 Color Stream 的图像分辨率为 640 × 480 ,设置采集帧率

    2024年02月09日
    浏览(34)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包