双目立体匹配中的极线约束(Epipolar Constraint),基础矩阵(Fundamental Matrix),本质矩阵(Essential Matrix),对极几何(2D-2D)

这篇具有很好参考价值的文章主要介绍了双目立体匹配中的极线约束(Epipolar Constraint),基础矩阵(Fundamental Matrix),本质矩阵(Essential Matrix),对极几何(2D-2D)。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

考虑一个SLAM中一个常见的问题:如果两个相机在不同位置拍摄同一个物体,或者一个运动的相机在不同时刻拍摄同一物体,我们有理由相信两张图片中各点存在着某种几何关系,这种关系可以用对极几何来描述。对极几何描述了两帧图像中各像素的射影关系(或者说是各匹配点的几何关系),其与外部的场景本身无关,只与相机的内参以及两图像的拍摄位置有关。

本文重点分析对极几何(Epipolar Geometry)、对极约束(Epipolar Constraint)、本质矩阵(Essential Matrix)和基础矩阵(Fundamental Matrix),以及他们之间的关系。

1. 对极约束(The Epipolar Constraint)

We know that x 1 x_1 x1 (in homogeneous coordinates) is the projection of 3D coordinate X X X on the image plane.
λ 1 x 1 = X , λ 2 x 2 = R X + T λ 2 x 2 = R ( λ 1 x 1 ) + T \lambda_1x_1=X, \quad \lambda_2x_2=RX+T \\ \lambda_2x_2=R(\lambda_1x_1) + T λ1x1=X,λ2x2=RX+Tλ2x2=R(λ1x1)+T
Then, we remove the translation by multiplying with T ∧ T^{\wedge} T, the skew matrix.
λ 2 T ∧ x 2 = λ 1 T ∧ R x 1 + 0 \lambda_2T^{\wedge}x_2=\lambda_1T^{\wedge}Rx_1+0 \\ λ2Tx2=λ1TRx1+0
Then, we projection onto x 2 x_2 x2 gives the epipolar constraint:
λ 2 x 2 T T ∧ x 2 = λ 1 x 2 T T ∧ R x 1 \lambda_2x_2^TT^{\wedge}x_2=\lambda_1x_2^TT^{\wedge}Rx_1 λ2x2TTx2=λ1x2TTRx1
As we know, T × x 2 = T ∧ x 2 T\times x_2=T^{\wedge}x_2 T×x2=Tx2, is the cross product, which generates a third vector that perpendicular to the plane which is spanned by T T T and x 2 x_2 x2.

So, λ 2 x 2 T T ∧ x 2 = 0 \lambda_2x_2^TT^{\wedge}x_2=0 λ2x2TTx2=0. The dot product of x 2 x_2 x2 and vector T ∧ x 2 T^{\wedge}x_2 Tx2 is zero. Then, we have:
x 2 T T ∧ R x 1 = 0 x_2^TT^{\wedge}Rx_1=0 x2TTRx1=0
This is called epipolar constraint.

2. 本质矩阵(Essential Matrix E E E)

The matrix E = T ∧ R ∈ R 3 × 3 E=T^{\wedge}R \in R^{3\times3} E=TRR3×3 is essential matrix. Provide the relation between the 2D point coordinates of 3D point in each of the two images and the camera transformation parameters.

This constraint states that the three vector o 1 X ⃗ \vec{o_1X} o1X , o 2 X ⃗ \vec{o_2X} o2X and o 2 o 1 ⃗ \vec{o_2o_1} o2o1 form a plane, and the volume of the plane is 0. This is called the volume spanned by x 2 x_2 x2, x 1 x_1 x1, and R , T R, T R,T, such that:
v o l u m e = x 2 T ( T × R ) x 1 = 0 x 2 T E x 1 = 0 volume = x_2^T(T\times R)x_1=0 \\ x_2^TEx_1=0 volume=x2T(T×R)x1=0x2TEx1=0

The unique solution, need eight point pairs to solve.
x 2 T E x 1 = 0 = a T E s = 0. x_2^TEx_1=0=a^TE^s=0. x2TEx1=0=aTEs=0.
For n n n point pairs, we can combine this into the linear system.
χ E s = 0 , w i t h    χ = ( a 1 , a 2 , . . . , a n ) T . \chi E^s=0, \quad with \ \ \chi =(a^1,a^2, ...,a^n)^T. χEs=0,with  χ=(a1,a2,...,an)T.文章来源地址https://www.toymoban.com/news/detail-752643.html

双目立体匹配中的极线约束(Epipolar Constraint),基础矩阵(Fundamental Matrix),本质矩阵(Essential Matrix),对极几何(2D-2D),opencv,图像处理,特征提取,目标检测,图像,矩阵,计算机视觉,自动驾驶,目标检测,图像处理

3. 对极几何(Epipolar Geometry)

双目立体匹配中的极线约束(Epipolar Constraint),基础矩阵(Fundamental Matrix),本质矩阵(Essential Matrix),对极几何(2D-2D),opencv,图像处理,特征提取,目标检测,图像,矩阵,计算机视觉,自动驾驶,目标检测,图像处理

4. 基础矩阵(Fundamental Matrix)

双目立体匹配中的极线约束(Epipolar Constraint),基础矩阵(Fundamental Matrix),本质矩阵(Essential Matrix),对极几何(2D-2D),opencv,图像处理,特征提取,目标检测,图像,矩阵,计算机视觉,自动驾驶,目标检测,图像处理

4.1 基础矩阵的性质(Properties of Fundamental Matrix)

双目立体匹配中的极线约束(Epipolar Constraint),基础矩阵(Fundamental Matrix),本质矩阵(Essential Matrix),对极几何(2D-2D),opencv,图像处理,特征提取,目标检测,图像,矩阵,计算机视觉,自动驾驶,目标检测,图像处理

4.2 相机中平移运动的特例(Translational Motion by the Same Camera)

双目立体匹配中的极线约束(Epipolar Constraint),基础矩阵(Fundamental Matrix),本质矩阵(Essential Matrix),对极几何(2D-2D),opencv,图像处理,特征提取,目标检测,图像,矩阵,计算机视觉,自动驾驶,目标检测,图像处理双目立体匹配中的极线约束(Epipolar Constraint),基础矩阵(Fundamental Matrix),本质矩阵(Essential Matrix),对极几何(2D-2D),opencv,图像处理,特征提取,目标检测,图像,矩阵,计算机视觉,自动驾驶,目标检测,图像处理

4.3 如何从对应点中估计基础矩阵(Estimating the Fundamental Matrix from Pixel Correspondence)

双目立体匹配中的极线约束(Epipolar Constraint),基础矩阵(Fundamental Matrix),本质矩阵(Essential Matrix),对极几何(2D-2D),opencv,图像处理,特征提取,目标检测,图像,矩阵,计算机视觉,自动驾驶,目标检测,图像处理

到了这里,关于双目立体匹配中的极线约束(Epipolar Constraint),基础矩阵(Fundamental Matrix),本质矩阵(Essential Matrix),对极几何(2D-2D)的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • 双目立体视觉之立体匹配算法

    双目立体视觉是指使用两个摄像机从不同的角度获取同一个场景的左右视图,然后使用双目立体匹配算法来寻找左右视图中的匹配像素点对,最后利用三角测量原理来还原三维空间物理点过程。其中双目立体匹配算法是最为核心的。 立体匹配是一种根据平面图像来恢复真实场

    2024年02月04日
    浏览(46)
  • 双目立体匹配_StereoNet网络

    端到端立体匹配网络:通常以左右视图作为输入,经卷积模块提取特征后,按相关性操作(Correlation)或拼接操作(Concat)构建代价体,最后根据代价体的维度进行不同的卷积操作,回归出视差图。 根据代价体维度的不同,可分为基于 3D 代价体和基于 4D 代价体的两种方法, 2D 编码

    2024年02月05日
    浏览(35)
  • 双目立体匹配算法SGM步骤拆解

            立体匹配是立体视觉研究中的关键部分,其目标是在两个或多个视点中匹配相应像素点,计算视差。双目摄像头类似人眼的工作原理,对同一目标可以形成视差,用来感知三维世界,由于成本远低于激光雷达,因此在自动驾驶领域被广泛研究。         SGM(

    2024年02月07日
    浏览(39)
  • 从双目标定到立体匹配:pyton实践指南

    立体匹配是计算机视觉中的一个重要领域,旨在将从不同角度拍摄的图像匹配起来,以创建类似人类视觉的3D效果。实现立体匹配的过程需要涉及许多步骤,包括双目标定、立体校正、视差计算等。在这篇文章中,将介绍如何使用Python实现立体匹配的基本步骤和技巧。 下面的

    2024年02月11日
    浏览(45)
  • 使用opencv做双目测距(相机标定+立体匹配+测距)

    最近在做双目测距,觉得有必要记录点东西,所以我的第一篇博客就这么诞生啦~ 双目测距属于立体视觉这一块,我觉得应该有很多人踩过这个坑了,但网上的资料依旧是云里雾里的,要么是理论讲一大堆,最后发现还不知道怎么做,要么就是直接代码一贴,让你懵逼。 所以

    2024年01月20日
    浏览(38)
  • opencv进行双目标定以及极线校正 python代码

    参考博客 OpenCV相机标定全过程 [OpenCV实战]38 基于OpenCV的相机标定 opencv立体标定函数 stereoCalibrate() 将打印的结果保存到标定文件中即可 参考博客 机器视觉学习笔记(8)——基于OpenCV的Bouguet立体校正 小白视角之Bouguet双目立体校正原理 校正前 左图 右图 校正后

    2024年02月11日
    浏览(41)
  • MySQL约束constraint

    约束canstraint,约束实际上就是表中数据的限制条件。表在设置的时候加入约束的目的是为了保证表中的记录完整性和有效性,比如用户的某些数据不能为空。 常用约束: 添加约束的两种方法: 在创建表的时候添加 create 在修改标的时候添加 alter 注意: 主键约束的列非空且

    2023年04月20日
    浏览(33)
  • 双目立体视觉:SAD算法

    SAD(Sum of absolute differences)是一种图像匹配算法。基本思想:差的绝对值之和。此算法常用于图像块匹配,将每个像素对应数值之差的绝对值求和,据此评估两个图像块的相似度。该算法快速、但并不精确,通常用于多级处理的初步筛选。 常见的立体匹配算法主要包括以下四步

    2024年02月06日
    浏览(55)
  • 双目立体视觉空间坐标精度分析

    参考链接:https://zhuanlan.zhihu.com/p/362718946 本文主要参考链接博主的理论推导,并按照自己的理解作分析和修正 双目立体视觉系统的精度由那些因素决定? X/Y/Z三个方向的精度都是一样的吗?如果不是一样,哪个方向精度更好呢? 最常见的情况下,双目立体视觉的最终输出是

    2024年02月10日
    浏览(38)
  • 双目立体视觉(一) 基本原理和步骤

    目录 一、双目立体视觉系统的四个基本步骤 二、各步骤原理 1、相机标定 2、立体校正 3、立体匹配 相机标定 主要包含两部分内容: 单相机的内参标定和双目相机的外参标定,前者可以获得每个相机的焦距、光心、畸变系数等参数,后者可以获得双目相机之间的相机坐标系的

    2024年02月14日
    浏览(44)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包