聚焦型光场相机基于立体视差的深度估计原理

这篇具有很好参考价值的文章主要介绍了聚焦型光场相机基于立体视差的深度估计原理。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

聚焦型光场相机可以看作是主透镜将物面成了一个放大或者缩小的虚像,然后每个微透镜阵列对这个经过放大或者缩小的虚像进行二次成像后投影在了ccd平面,其中二次成像的过程可以比拟为一个虚拟阵列相机,利用MLA和主透镜的相关参数就可以以立体视觉的原理实现对像面点的深度估计。

原理介绍:

下图介绍了两个不同的微透镜阵列对同一个虚拟像面的点进行成像的原理图

聚焦型光场相机基于立体视差的深度估计原理,数码相机
微透镜二次成像原理图

其中 P 为物点的一次成像点,P'' 为 P 点在微透镜面的投影点,B 为微透镜阵列到CCD面间的距离,D 为微透镜直径,V 为 P 点到微透镜镜面的距离。Δx0为P在微透镜下的二次成像点到微透镜中心的距离。O 为微透镜的中心点。

聚焦型光场相机基于立体视差的深度估计原理,数码相机

 其中 OP'' 为一次成像点 P 在微透镜面的投影点到微透镜中心 O 的距离,v = V/B 为点 P 的虚深度,所以可以得到P点的虚深度数值:

聚焦型光场相机基于立体视差的深度估计原理,数码相机

 总的来讲对应的深度估计流程如下:

1. 计算所有MLA的中心点坐标

2. 寻找待测深度的点并找到所有MLA子图像中与之匹配的像点,为每一个像点构建二次成像点的数据集

3. 确定物点在MLA阵列面的投影坐标 P'',计算得到Δx0

4. 根据上图的虚深度计算公式确定物体的虚深度,由于MLA和CCD的距离已知,所以很方便的可以得到对应的像距,根据主透镜的高斯成像公式进而得到主透镜的物距。

代码及讲解

接下来将简单的介绍一种可以实现深度估计的算法以及对应的算法测量效果。

1. 计算得到所有的MLA中心坐标(此处仅提供一种方式,霍夫变换圆形中心检测)

后续正在更新。。。文章来源地址https://www.toymoban.com/news/detail-568249.html

到了这里,关于聚焦型光场相机基于立体视差的深度估计原理的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • 立体匹配入门指南(8):视差图、深度图、点云

    本篇是比较简单的基础概念,刚入门的朋友可能是需要的。 视差图 三维点云 首先,我们要介绍下这三个概念。 视差(disparity) 视差 d d d 等于同名点对在左视图的列坐标减去在右视图上的列坐标,是 像素单位 d = x l − x r d=x_l-x_r d = x l ​ − x r ​ 立体视觉里,视差概念在极

    2023年04月08日
    浏览(37)
  • 3D立体匹配入门 - 视差计算

    1、左右视图成功匹配的窗口,具有相同的像素 这个是最经典的假设,几乎所有视差图计算都用上了他,通过匹配左右窗口像素,得到最佳匹配对应的x轴坐标差,就是视差 2、像素P的视差只与其领域有关 这个是基于马尔可夫性质,做代价聚合的时候,基于这个假设就用周围的

    2024年02月04日
    浏览(36)
  • 【OpenCV】双目相机标定、极线矫正、SIFT匹配以及深度估计

    双目标定有很多示例,就不多讲,直接放代码 有个小技巧就是可以先使用matlab标定箱试一下,把误差过大的左右相机图片剔除,保证精度 匹配: 过滤: 这里过滤条件2需要注意一下 ,因为我们是进行了极线校正的,所以理论上左右视图相同的点应该在同一条水平线上,即像

    2024年02月07日
    浏览(27)
  • OpenCV与AI深度学习 | 使用单相机对已知物体进行3D位置估计

    本文来源公众号“ OpenCV与AI深度学习 ”,仅用于学术分享,侵权删,干货满满。 原文链接:使用单相机对已知物体进行3D位置估计         本文主要介绍如何使用单个相机对已知物体进行3D位置估计,并给出实现步骤。           在计算机视觉中,有很多方法可以找

    2024年03月15日
    浏览(37)
  • 关于机器人状态估计(15)-VIO与VSLAM精度答疑、融合前端、主流深度相机说明与近期工程汇总

    VIOBOT种子用户有了一定的数量,日常大家也会进行交流,整理总结一下近期的交流与答疑。 VIO-SLAM(作为三维SLAM,相对于Lidar-SLAM和LIO-SLAM)在工程上落地的长期障碍,不仅在算法精度本身,还有相对严重的鲁棒性问题,尺度问题,世界观问题和沉重的开销/成本问题。 这些我在

    2024年02月16日
    浏览(32)
  • 【opencv】示例-stereo_calib.cpp 基于OpenCV的立体视觉相机校准的完整示例

    这段代码是一个用于执行立体视觉系统校准的应用程序的主函数main。它按以下步骤执行: 初始化用于指定棋盘尺寸、图像列表文件名、是否展示校正结果等参数的变量。 解析命令行输入的参数,其中包括棋盘的宽度、高度、类型、格子大小、Aruco标记大小、Aruco字典名称、额

    2024年04月15日
    浏览(37)
  • 简要介绍 | 基于深度学习的姿态估计技术

    注1:本文系“简要介绍”系列之一,仅从概念上对基于深度学习的姿态估计技术进行非常简要的介绍,不适合用于深入和详细的了解。 注2:\\\"简要介绍\\\"系列的所有创作均使用了AIGC工具辅助 姿态估计 是计算机视觉领域的一个重要研究方向,它主要关注如何从图像或视频中提

    2024年02月09日
    浏览(32)
  • 【三维重建补充知识-0】视差、深度概念及其转换

    把手指放在眼前,分别闭上左、右眼,我们会发现 手指与后边物体的相对位置是不同的 ,也即两眼所识别的两幅图像之间存在视觉差异,我们 通过“视差”这一概念来表示这种差别 。 该过程也可以通过两个处于同一平面的相机来模拟: 如下图所示,在 同一水平面上存在位

    2024年02月10日
    浏览(38)
  • 白学立体视觉(3): 单目相机标定

    小伙伴们,第一个理论加实践的小结来啦。本小节将会在白学立体视觉(2): 相机内外参数与坐标系的基础上,介绍一下鼎鼎有名的张正友标定法。 我们如果想重建出一台相机的成像过程的数学模型,相机的参数是最基本的。相机参数又分为内参和外参。那么内参和外参就是

    2024年02月06日
    浏览(38)
  • 使用opencv做双目测距(相机标定+立体匹配+测距)

    最近在做双目测距,觉得有必要记录点东西,所以我的第一篇博客就这么诞生啦~ 双目测距属于立体视觉这一块,我觉得应该有很多人踩过这个坑了,但网上的资料依旧是云里雾里的,要么是理论讲一大堆,最后发现还不知道怎么做,要么就是直接代码一贴,让你懵逼。 所以

    2024年01月20日
    浏览(29)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包