【论文阅读】Deep Instance Segmentation With Automotive Radar Detection Points

这篇具有很好参考价值的文章主要介绍了【论文阅读】Deep Instance Segmentation With Automotive Radar Detection Points。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

基于汽车雷达检测点的深度实例分割

一个区别:

automotive radar 汽车雷达 :

分辨率低,点云稀疏,语义上模糊,不适合直接使用用于密集LiDAR点开发的方法  ;

返回的物体图像不如LIDAR精确,可以在雨,雪,雨夹雪,冰雹,雾,泥和尘土中返回;

在夜间和阴天条件下也比激光雷达更准确;

发出的是无线电波而不是激光束

LiDAR 激光雷达:

激光波比无线电波短,因此激光雷达可以生成更详细的物体图像;贵

【论文阅读】Deep Instance Segmentation With Automotive Radar Detection Points,点云,论文阅读

 左 LiDAR;右 RADAR  

============================================

提出问题:

从无线电雷达在点云实例分割上的实际问题出发:

问题一:雷达测点由于分辨率较低,比激光雷达测点云更稀疏、噪声更大,缺乏语义和几何信息,一些几何信息例如物体的形状,不能通过点的分布来反映,从而导致局部信息的缺乏。

问题二:  汽车驾驶需要对雷达数据进行实时处理的算法,雷达处理系统中的微中心单元(MCU)限制了模型的存储空间和可用的计算能力。

分析问题:

针对问题一:全局特征信息可以帮助分割任务,该如何设计一种深度学习算法来解决雷达检测点的稀疏性和模糊性 ,因为主流的pointnet++是模仿卷积思维,按照提取局部特征的思维来设计的,要很深的网络才能学到全局相互作用

针对问题二:性能提高的同时要兼顾实际场景,尽量轻量化

解决方案:

1、针对汽车雷达稀疏检测点的实例分割任务,设计了一种基于语义分割的聚类方法。该模型是基于PointNet++的语义分割版本设计的,新引入的头部估计点向中心偏移向量(CSV)--它表示从每个检测点到其相应实例的几何中心的偏移量。在聚类过程中,利用预测的CSV将每个点向其实例的中心移动,从而使属于同一实例的点更加接近,提高聚类精度

2、使用余弦相似性损失和归一化内积损失的和作为稀疏雷达检测点的语义分割训练过程中的损失,以提高性能的CSV引导聚类----为上述提出的中心偏移量适配的损失,来最小化 预测CSV 和ground-truth CSV之间的距离

3、提出使用gMLP来进一步提高模型的性能

得到的效果:

平均覆盖率(mCov)和平均精度(mAP)分别比基于聚类的分类方法高9.0%和9.2%,比端到端实例分割方法高8.6%和9.1%。同时,该方法及其轻量级版本的内存消耗保持在1MB左右,推理时间小于40 ms,适用于汽车雷达单片机

具体做法:

【论文阅读】Deep Instance Segmentation With Automotive Radar Detection Points,点云,论文阅读

 N为样本量;C表示主干网络的输出通道数;Nclass是类的数量;Ndim为雷达原始探测点的尺寸。输入点首先通过逐点分类分支获得其预测类标号。然后根据csv预测分支对其预测的csv进行移动,使属于同一实例的点更加集中。然后,具有相同类标签的点被聚成簇(即实例)。在样例帧的实例分割结果中,不同的颜色表示不同的类,同一个圆中的点属于同一个实例。

【论文阅读】Deep Instance Segmentation With Automotive Radar Detection Points,点云,论文阅读

 (a)PointNet++主干网络,采用两个SA水平和两个FP水平的结构,提取点特征

(b)预测头的结构,预测头为两层mlp,语义分割分支预测每个点的每个类的得分,而对于csv预测分支,预测每个点与其实例中心之间的差异。

(c) csv的图解,同一圆内的点属于同一实例

(d)可视化的整体结构的MLP增强PointNet++主干网络。可视化的MLP块在每个集合抽象级别和特征传播级别之后添加gMLP

【论文阅读】Deep Instance Segmentation With Automotive Radar Detection Points,点云,论文阅读

 学习参考:

gmlp结构要看下原论文 :Pay Attention to MLPs

实验上的叙述文章来源地址https://www.toymoban.com/news/detail-642546.html

到了这里,关于【论文阅读】Deep Instance Segmentation With Automotive Radar Detection Points的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • 论文阅读:Polyp-PVT: Polyp Segmentation with PyramidVision Transformers

    这篇论文提出了一种名为Polyp-PVT的新型息肉分割框架,该框架采用金字塔视觉变换器(Pyramid Vision Transformer, PVT)作为编码器,以显式提取更强大的特征。本模型中使用到的关键技术有三个:渐进式特征融合、通道和空间注意力、自注意力。 Polyp-PVT通过引入三个简单的组件—

    2024年04月13日
    浏览(28)
  • On Moving Object Segmentation from Monocular Video with Transformers 论文阅读

    标题 :On Moving Object Segmentation from Monocular Video with Transformers 作者 : 来源 :ICCV 时间 :2023 代码地址 :暂无 通过单个移动摄像机进行移动对象检测和分割是一项具有挑战性的任务,需要了解识别、运动和 3D 几何。将识别和重建结合起来可以归结为融合问题,其中需要结合外

    2024年02月08日
    浏览(39)
  • 【论文阅读笔记】A literature survey of MR-based brain tumor segmentation with missing modalities

    Zhou T, Ruan S, Hu H. A literature survey of MR-based brain tumor segmentation with missing modalities[J]. Computerized Medical Imaging and Graphics, 2023, 104: 102167. 这篇文献综述重点探讨了在磁共振成像(MRI)用于脑肿瘤分割时面临的一项主要挑战:部分MRI模态的缺失(本文将范围限定为 在训练期间可以使用

    2024年01月19日
    浏览(35)
  • OSFormer: One-Stage Camouflaged Instance Segmentation with Transformers

    地址:https://arxiv.org/pdf/2207.02255.pdf 1. 摘要     OSFormer为基于transformer的伪装实例分割(CIS)框架,有两个关键设计,首先是位置敏感transformer(LST),通过【位置引导查询】和【混合卷积前向传播网络】获得定位标签和实例级参数;第二,开发粗糙到精细融合模块(CFF)合并来

    2024年02月12日
    浏览(44)
  • 【论文阅读】DeepVO: Towards End-to-End Visual Odometry with Deep Recurrent Convolutional Neural Networks

    相较于传统的视觉里程计,端到端的方法可以认为是把特征提取、匹配、位姿估计等模块用深度学习模型进行了替代。不同于那种用深度学习模型取代里程计框架一部分的算法,端到端的视觉里程计是直接将整个任务替换为深度学习,输入依然是图像流,结果也依然是位姿,

    2024年03月18日
    浏览(44)
  • Divide and Conquer: 3D Point Cloud Instance Segmentation With Point-Wise Binarization

    点云上的实例分割对于三维场景理解至关重要。大多数最先进的方法采用距离聚类,这通常是有效的,但在对具有相同语义标签的相邻对象进行分割时表现不佳(特别是当它们共享相邻点时)。由于偏移点分布不均匀,这些现有方法几乎无法聚类所有实例点。为此,我们设计

    2024年02月20日
    浏览(30)
  • 【视觉SLAM】An Improved ORB-SLAM2 in Dynamic Scene with Instance Segmentation

    Cite: H. Qian and P. Ding.An Improved ORB-SLAM2 in Dynamic Scene with Instance Segmentation[C].2019 Workshop on Research, Education and Development of Unmanned Aerial Systems (RED UAS).Cranfield, UK. 2019:185-191. Keyword: 特征提取,图像运动分析,图像分割,移动机器人,姿势估计,机器人视觉,SLAM (机器人) 为了提高动态

    2024年02月01日
    浏览(26)
  • 【论文笔记】Scene Reconstruction From 4D Radar Data with GAN and Diffusion

    原文链接:https://kth.diva-portal.org/smash/get/diva2:1799731/FULLTEXT01.pdf 本文使用深度生成模型(DGM)实现以4D雷达为条件的图像生成,以提供雷达数据的另一可视化方法并增强可解释性。 实验中的雷达和RGB相机固定在路面上方并经过时空同步。雷达和图像的数据对会作为网络的训练数

    2024年02月03日
    浏览(34)
  • 【论文阅读】A Comparative Study on Camera-Radar Calibration Methods

    综述文 compare three types of the calibration methods presented in previous studies on fusing camera and radar in terms of calibration accuracy. Experimental results show that one type of the methods is not appropriated to the camera-radar calibration, and the methods belonging to the other types provide quite similar accuracy. ADAS:advanced driver assist

    2024年02月05日
    浏览(34)
  • 2023 Mask R-CNN 改进:DynaMask: Dynamic Mask Selection for Instance Segmentation 论文笔记

    写在前面   本周更新的第二篇论文阅读,2023年每周一篇博文,还剩5篇未补,继续加油~ 论文地址:DynaMask: Dynamic Mask Selection for Instance Segmentation 代码地址:https://github.com/lslrh/DynaMask 收录于:CVPR 2023 欢迎关注,主页更多干货,持续输出中~   一般的实例分割通常采用固定

    2024年02月01日
    浏览(71)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包