CVPR2023新作:3D视频物体检测

这篇具有很好参考价值的文章主要介绍了CVPR2023新作:3D视频物体检测。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

  1. Title: 3D Video Object Detection With Learnable Object-Centric Global Optimization

  2. Affiliation: 中国科学院自动化研究所 (Institute of Automation, Chinese Academy of Sciences),中国科学院大学人工智能学院 (School of Artificial Intelligence, University of Chinese Academy of Sciences),香港中文大学人工智能与机器人中心 (Centre for Artificial Intelligence and Robotics, HKISI CAS),TuSimple

  3. Authors: Jiawei He, Yuntao Chen, Naiyan Wang, Zhaoxiang Zhang

  4. Keywords: 3D video object detection, correspondence-based optimization, object-centric, bundle adjustment

  5. Summary:

  • (1): 本文研究的是3D视频物体检测,探索长期时间上的视觉对应优化。而对于运动物体的检测,基于对应的优化在3D场景重建时很少被研究,因为移动的物体违反了多视角几何约束,被视为离群值。本文有针对地解决了这个问题,突破了现有方法的局限性,做到了对 静态物体和动态物体的统一处理。

  • (2): 目前的 3D视频物体检测方法可分为三类。第一类采用对象跟踪,但这种方法只是将检测的结果进行光滑处理,没有利用视频丰富的暗示信息。 第二类是采用了包括对 BEV (Bird’s- Eye View) ,multi-frame temporal cross-attention等技术的综合性方案,但同样忽略了显式的时间上的对应关系。第三类是从 stereo-from-video角度出发进行研究,但还是没有考虑相对于时间较长的情况。本文提出的方法不仅突破了上述方法的局限性,而且创新性地解决了运动物体和静止物体的处理问题,使得这个方法更加具有普适性和鲁棒性。

  • (3): 本文提出了一个端到端的优化目标检测器BA-Det,它实现了可学习的物体中心时空对应关系和特征度量型物体绑定调整,针对动态物体和静态物体对应关系引入了不同的约束。此外,该算法的优化是一个非线性最小二乘优化问题,可以使得模型非常适合于对应在大规模的数据集上进行训练。

  • (4): 在大量的实验中,BA-Det算法的成功应用使得其在相应的3D检测任务上取得了最先进的水平,并且在瓶颈部位的时间、空间参数提升也非常显著。相比较于其他方法,BA-Det在计算资源上的开销较低,因此具有一定的推广价值。

  1. Methods:
  • (1): 本文提出一种名为BA-Det的端到端物体优化检测器,可用于3D视频物体检测问题。该方法主要包括两个可学习组件:物体中心时空对应关系和特征度量型物体绑定调整。针对动态物体和静态物体对应关系引入了不同的约束,并将其结合在一个非线性最小二乘优化问题中。该算法能够通过对全局优化和局部细节校准相结合,实现对于视频中物体3D位置估计的精准检测。

  • (2): 本文方法主要解决了运动物体检测问题,对于长时间的视觉对应优化在3D场景重建中采用对象跟踪,并放弃了这种做法对于动态物体的处理。采用了对 BEV、multi-frame temporal cross-attention等技术的综合性方案,但同样忽略了显式的时间上的对应关系。因此,本文方法中创新地引入了物体中心的概念,建立物体中心和物体外框之间的对应关系,并将此问题转化为一个优化问题来解决。

  • (3): 在实验中,本文将其方法与多个先进的3D视频物体检测算法进行比较。结果表明,BA-Det算法具有更好的性能,不仅可以检测静态物体,而且可以处理动态物体,并在3D检测任务上取得了最先进的水平。在计算资源上的开销也较低,因此具有一定的推广价值。

  1. Conclusion:
  • (1): 本研究提出了一种具有长期时间上的视觉对应优化的3D视频物体检测方法——BA-Det,并取得了很好的效果。此方法突破了现有方法的局限性,同时能有效地处理静态物体和动态物体。

  • (2): 创新点:BA-Det算法创新性地引入物体中心的概念,建立物体中心和物体外框之间的对应关系,从而有效解决运动物体检测问题。文章来源地址https://www.toymoban.com/news/detail-608077.html

到了这里,关于CVPR2023新作:3D视频物体检测的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • TPS Motion(CVPR2022)视频生成论文解读

    论文: 《Thin-Plate Spline Motion Model for Image Animation》 github: https://github.com/yoyo-nb/Thin-Plate-Spline-Motion-Model 问题: 尽管当前有些工作使用无监督方法进可行任意目标姿态迁移,但是当源图与目标图差异大时,对当前无监督方案来说仍然具有挑战。 方法: 本文提出无监督TPS Motio

    2023年04月11日
    浏览(72)
  • CVPR2023 | 70+目标检测论文及代码整理

    目标检测是当下应用最广的计算机视觉任务之一。本文整理了CVPR 2023 目标检测相关论文72篇,覆盖包括2D目标检测、3D目标检测、视频目标检测、人物交互检测、异常检测、伪装目标检测、关键点检测、显著性目标检测、车道线检测、边缘检测等10个细分任务。并且每篇论文都

    2024年02月10日
    浏览(37)
  • CVPR2023最佳论文候选:3D点云配准新方法

    文章:3D Registration with Maximal Cliques 作者:Xiyu Zhang Jiaqi Yang* Shikun Zhang Yanning Zhang 编辑:点云PCL 代码: https://github.com/zhangxy0517/3D-Registration-with-Maximal-Cliques.git 欢迎各位加入知识星球,获取PDF论文,欢迎转发朋友圈。文章仅做学术分享,如有侵权联系删文。 公众号致力于点云处

    2024年02月08日
    浏览(44)
  • 【CVPR 2023 论文解读】TriDet: Temporal Action Detection with Relative Boundary Modeling

    发表时间:CVPR 2023 作者团队:北航,美团,JD Explore 代码链接: GitHub - dingfengshi/TriDet: [CVPR2023] Code for the paper, TriDet: Temporal Action Detection with Relative Boundary Modeling [CVPR2023] Code for the paper, TriDet: Temporal Action Detection with Relative Boundary Modeling - GitHub - dingfengshi/TriDet: [CVPR2023] Code for t

    2024年02月05日
    浏览(56)
  • CVPR2023新作:基于面部对称性先验的三维生成对抗网络反演方法

    Title: 3D GAN Inversion With Facial Symmetry Prior (带面部对称性先验的3D GAN反演) Affiliation: 清华大学 Authors: Fei Yin, Yong Zhang, Xuan Wang, Tengfei Wang, Xiaoyu Li, Yuan Gong, Yanbo Fan, Xiaodong Cun, Ying Shan, Cengiz ÈOztireli, Yujiu Yang Keywords: 3D GAN, facial symmetry prior, generator network, neural rendering, image reconstruction

    2024年02月15日
    浏览(39)
  • CVPR'23论文一览 | 多模态/3D检测/BEV/跟踪/点云等多个方向!

    点击下方 卡片 ,关注“ 自动驾驶之心 ”公众号 ADAS巨卷干货,即可获取 点击进入→ 自动驾驶之心【全栈算法】技术交流群 Referring Multi-Object Tracking 研究背景:多目标跟踪(MOT)是指在视频中检测并跟踪多个感兴趣的对象,并为它们分配唯一的ID。现有的MOT方法通常依赖于视

    2024年02月05日
    浏览(54)
  • CVPR 2023 | VoxelNeXt实现全稀疏3D检测跟踪,还能结合Seg Anything

    在本文中,研究者提出了一个完全稀疏且以体素为基础的3D物体检测和跟踪框架VoxelNeXt。它采用简单的技术,运行快速,没有太多额外的成本,并且可以在没有NMS后处理的情况下以优雅的方式工作。VoxelNeXt在大规模数据集nuScenes、Waymo和Argoverse2上表现出很好的速度和精度;在

    2024年02月09日
    浏览(49)
  • 【论文阅读】通过3D和2D网络的交叉示教实现稀疏标注的3D医学图像分割(CVPR2023)

    论文:3D Medical Image Segmentation with Sparse Annotation via Cross-Teaching between 3D and 2D Networks 代码:https://github.com/hengcai-nju/3d2dct 问题1 :医学图像分割通常需要大量且精确标注的数据集。但是获取像素级标注是一项劳动密集型的任务,需要领域专家付出巨大的努力,这使得在实际临床场

    2024年02月05日
    浏览(65)
  • [论文阅读]FCAF3D——全卷积无锚 3D 物体检测

    FCAF3D:Fully Convolutional Anchor-Free 3D Object Detection FCAF3D:全卷积无锚 3D 物体检测 论文网址:Fcaf3d 代码网址:Fcaf3d 这篇论文介绍了一个用于室内3D物体检测的全卷积 Anchor-Free 方法 FCAF3D。主要贡献如下: 提出了第一个用于室内3D物体检测的全卷积Anchor-Free方法FCAF3D。 提出了一种新的

    2024年02月03日
    浏览(44)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包