3D激光雷达和相机融合

这篇具有很好参考价值的文章主要介绍了3D激光雷达和相机融合。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

标定

相机内参标定

主要看重投影误差,cv的标定识别率也太低了。。。原因是找到了,相机给的曝光时间5ms,增大曝光时间成功率大大提升,但曝光时间给打了,影响实时性,头疼。。

livox_lidar_camera_calibration外参标定

主要是3D-2D的标定

采集标定数据

参照以下采集标定数据和处理标定数据,pcd角点选取和图像角点选取:

https://zhaohailong.blog.csdn.net/article/details/125736088?spm=1001.2014.3001.5502

遇到livox_lidar_camera_calibration无法批处理转pcd:

原因查出来是src/pcdTransfer.cpp 60多行不正常,无法运行这个for循环,读不到数据存出来的数据为空,可能是ubuntu20+ros melodic不好使

for (const rosbag::MessageInstance &m : view) { //todo:这句存在问题,无法读取ros数据

最后通过livox_camera_calib里的包使用bag_to_pcd.launch一个个转的,非常不友好。

uptdate:

vector<string> types;

//types.push_back(string("livox_ros_driver/CustomMsg"));

//std::cout << "lidar_topic: " << lidar_topic << std::endl;

types.push_back(string("sensor_msgs/PointCloud2"));

rosbag::View view(bag, rosbag::TypeQuery(types));

最后发现是因为rosbag::TypeQuery输入的是数据类型,而不是话题名。。。

题外话:我使用360度的激光雷达,使用livox_camera_calib这个包会有视角问题(投影三维点到相机),效果不好,果断放弃,还是通过标定板来操作。

遇到livox_lidar_camera_calibration的第二个坑就是src/corner_photo.cpp,看代码是要手动标注选去畸变后的图片像素,但是相片太大,通过resizeWindow或者nameWindow都无法缩小显示对话框,不知道是不是ubuntu 20还是cv4.2版本,是真坑。。。最后在代码里把去畸变后的图片保存下来,放到windows上使用[画图]软件一个像素一个像素描,真心尼吗的坑。。。

遇到 livox_lidar_camera_calibration第三个坑是要求一行大于10,因为我是手动量的图片像素,一行不够10个,所以最后在图片像素加上小数点后几位即可。

3D激光雷达和相机融合,多传感器融合,自动驾驶,人工智能

标定

getExt1.launch

计算结果

3D激光雷达和相机融合,多传感器融合,自动驾驶,人工智能

标定精度对比

livox_camera_calib

据说要采集多个场景比较好,我在室内采集多个场景,效果比较差,室外没法供电,暂时没测;

推荐用楼梯间这种,可是没有楼梯间。。。

livox_lidar_camera_calibration

误差:2个像素,我自己测出来外参重投影误差3-4个像素,上色结果比较差

livox_lidar_camera_calibration学习--标定外参求解_qq_38650944的博客-CSDN博客

Autoware

我是在尝试livox_lidar_camera_calibration和livox_camera_calib两个标定包后,再使用autoware标定包,使用比之前好很多,精度也高不少,有人给出精度是1cm,我的标定数据如下:

3D激光雷达和相机融合,多传感器融合,自动驾驶,人工智能

 附上我改写的开发包和标定中遇到的一些问题和解决办法:

传送门:autoware标定包使用_妄想出头的工业炼药师的博客-CSDN博客

autoware的问题是标着玩可以,但是易用性很低,需要采集很多照片才行,希望是一张图片一个pcd就能解决问题;

lidar_camera_calibration

还不知道精度怎么样,gitlab打星比较多

3D雷达与相机的标定方法详细教程_敢敢のwings的博客-CSDN博客_标定找相机yaw pitch roll

比较自动的标定流程

附录

比较全的标定汇总:

雷达与相机的时空标定工具 - 知乎

静态上色

https://zhaohailong.blog.csdn.net/article/details/125737021?spm=1001.2014.3001.5502

动态上色

GitHub - johannes-graeter/limo: Lidar-Monocular Visual Odometry

使用标定直接使用最新图片着色

Livox Lidar+海康Camera实时生成彩色点云_lucky li的博客-CSDN博客

GitHub - Deephome/Awesome-LiDAR-Camera-Calibration: A Collection of LiDAR-Camera-Calibration Papers, Toolboxes and Notes 文章来源地址https://www.toymoban.com/news/detail-740140.html

到了这里,关于3D激光雷达和相机融合的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • 3D激光雷达和相机融合

    主要看重投影误差,cv的标定识别率也太低了。。。原因是找到了,相机给的曝光时间5ms,增大曝光时间成功率大大提升,但曝光时间给打了,影响实时性,头疼。。 主要是3D-2D的标定 采集标定数据 参照以下采集标定数据和处理标定数据,pcd角点选取和图像角点选取: https:

    2024年02月06日
    浏览(62)
  • Bunker_mini多传感器外参标定,雷达相机IMU

    使用Livox Viewer标定外参,具体步骤参考https://github.com/Livox-SDK/Livox-SDK/wiki/Calibrate-extrinsic-and-display-under-ros-cn 需要说明的是,Bunker_mini前面拼了三个AVIA,均安装在定制的支架。 外参标定需要给一个初始的标定数据,由于我们的支架有三维模型,所以可以通过CAD算出来 根据CAD计算

    2024年01月21日
    浏览(49)
  • 最新综述!基于相机、LiDAR和IMU的多传感器融合SLAM

    作者:萧炎 | 来源:3DCV 在公众号「 3DCV 」后台,回复「原论文」可获取论文pdf和代码链接 近年来,同步定位与建图(SLAM)技术在自动驾驶、智能机器人、增强现实(AR)、虚拟现实(VR)等领域得到广泛应用。使用最流行的三种类型传感器(例如视觉传感器、LiDAR传感器和

    2024年03月26日
    浏览(62)
  • 【多模态融合】MetaBEV 解决传感器故障 3D检测、BEV分割任务

    本文介绍多模态融合中,如何解决传感器故障问题;基于激光雷达和相机,融合为BEV特征,实现3D检测和BEV分割,提高系统容错性和稳定性。 会讲解论文整体思路、模型框架、论文核心点、损失函数、实验与测试效果等。 论文地址:MetaBEV: Solving Sensor Failures for BEV Detection an

    2024年04月28日
    浏览(41)
  • 虹科方案丨自动驾驶多传感器数据融合方法

    文章来源:雅名特自动驾驶 点此阅读原文:https://mp.weixin.qq.com/s/QsPMWZDGZaPdEx47L2VmeA 近年来,深度学习技术在涉及高维非结构化数据领域展现出了最先进的性能,如计算机视觉、语音、自然语言处理等方面,并且开始涉及更大、更复杂的多模态信息问题。 不同传感器在进行同一

    2024年02月07日
    浏览(43)
  • ​CVPR2023 | MSMDFusion: 激光雷达-相机融合的3D多模态检测新思路(Nuscenes SOTA!)...

    点击下方 卡片 ,关注“ 自动驾驶之心 ”公众号 ADAS巨卷干货,即可获取 点击进入→ 自动驾驶之心【3D目标检测】技术交流群 后台回复 【3D检测综述】 获取最新基于点云/BEV/图像的3D检测综述! 融合激光雷达和相机信息对于在自动驾驶系统中实现准确可靠的3D目标检测至关重

    2023年04月21日
    浏览(54)
  • 自动驾驶定位算法:基于多传感器融合的状态估计(muti-Sensors Fusion)

    1、传感器(Sensor)选取 自动驾驶系统中用于状态估计(State Estimation)的常用传感器包括GPS/GNSS、IMU、激光雷达(Lidar)。 状态估计(State Estimation)选用传感器需要考虑哪些因素: 1)误差不相关性。也就是说,用于Sensor Fusion的传感器其中单个传感器(Sensor Measurement)测量失败,不会导

    2024年04月13日
    浏览(46)
  • Ansys Lumerical Zemax Speos | CMOS 传感器相机:3D 场景中的图像质量分析

    在本例中,我们介绍了一个仿真工作流程,用于在具有不同照明条件的特定环境中,从光学系统和CMOS成像器的组合中分析相机系统的图像质量。此示例主要涵盖整个工作流程中的Ansys Speos部分。该光学系统采用Ansys Zemax OpticStudio设计,并导出到Ansys Speos进行系统级分析。CMOS成

    2023年04月08日
    浏览(80)
  • Nooploop空循环 基于ArduPilot开源自动驾驶仪平台(APM固件)的TOFSense/-F/-M全系列激光测距传感器应用图文教程

    自2023/7/10日起ArduPilot飞控固件开始支持深圳空循环科技有限公司的TOFSense系列产品。从Plane/Copter/Rover 4.5 开始,Ardupilot 固件添加了对 TOFSense协议的支持,用于避障和高度保持。用户如果使用低于该版本的固件需要自行将相关文件进行移植与适当修改,才能支持TOFSense,TOFSense传

    2024年02月04日
    浏览(83)
  • 多传感器融合算法-后融合

      自动驾驶系统通常由定位、环境感知和规划控制等模块组成,近年来主流的环境感知传感器包括 摄像头 、 激光雷达 、 毫米波雷达 、超声波雷达等。不同种类传感器由于其探测原理不同,所具备的优劣势也有所差异,且现阶段单一种类的传感器往往很难覆盖所有场景,

    2024年04月26日
    浏览(65)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包