【视觉SLAM入门】5.1. 特征提取和匹配--FAST,ORB(关键点描述子),2D-2D对极几何,本质矩阵,单应矩阵,三角测量,三角化矛盾

这篇具有很好参考价值的文章主要介绍了【视觉SLAM入门】5.1. 特征提取和匹配--FAST,ORB(关键点描述子),2D-2D对极几何,本质矩阵,单应矩阵,三角测量,三角化矛盾。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

为什么重要?我们是在做什么事?

  • 特征提取和匹配: 首先是两幅图像的特征提取,然后是对应特征点的匹配。接下来的工作是根据得到的匹配点对,估计相机的运动,具体根据相机分为三种方法:
    • 单目相机:2D-2D: 对极几何 方法
    • 双目或者RGBD相机: 3D-3D: ICP 方法
    • 一个3D点和它相机中的投影位置: 3D-2D : PnP 方法

0. 基础知识

视觉SLAM两阶段:

  • 前端(VO) —> 粗略相机运动 ------> 提供给后端初始值
  • 后端 —> 优化

VO的实现方法两派:

  • 不提取特征点 ----> 直接法
  • 提取特征点 ------> 特征点法 ----> 成熟

1. 特征提取和匹配

注意:有些东西的作用你要明白:

  • 关键点: 是在一幅图像中找到的点,作用是在一幅图中找到路标点(有代表性的点)。
  • 描述子: 在两个图像的关键点找到的情况下,匹配两个图像中的对应关键点。 通常是向量
  • 特征点: 由关键点和描述子两部分组成,任务是(提取XXX关键点,计算XXX描述子)
  • 尺度不变性: 为了确保从远到近都能检测出来关键点
  • 旋转不变性: 为了确保图像旋转后还能检测出来关键点
  • 特征提取的是关键点和描述子,特征匹配是根据描述子匹配的

几种图像特征:

  • SIFT特征:计算量太大,有些精确
  • FAST关键点:没有描述子,最快,不准。
  • ORB特征:改进FAST关键点,采用BRIEF描述子

1.1 FAST关键点

    1. 比较周围半径圆范围内的灰度情况,差别大就是角点。
    1. 设定一个数量,比如9,范围内至少有连续9个点和选定点的亮度色差大于阈值T的时候,该点就称为特征点。这种方法叫FAST-9。
    1. 检测完角点扎堆,非极大值抑制

1.2 ORB的关键点–改进FAST

改进了FAST关键点法,克服了缺点:

    1. 可以指定提取数量: 对点分别计算Harris相应,取前N个响应最大的角点;
    1. 尺度不变性: 用图像金字塔提取每一层的角点,均为角点才是角点;
    1. 旋转不变性:灰度质心法,保证图像旋转后还能检测到。最后得到的是角度,从图像光度明指向光度暗的一侧,具体实现如下:

【视觉SLAM入门】5.1. 特征提取和匹配--FAST,ORB(关键点描述子),2D-2D对极几何,本质矩阵,单应矩阵,三角测量,三角化矛盾,# VSLAM,自动驾驶-SLAM,矩阵,计算机视觉,线性代数,SLAM,算法

1.3 ORB的描述子–BRIEF

作用:为了保证两个图像中提取出的关键点能对应上各自匹配的点对。

  • BRIEF是二进制描述子,描述向量由0和1组成
  • 做法:选取关键点周围的图像块,随机选取像素点对(有很多选点方法),如128就是取128个点对,设两个点像素分别为 p , q p, q p,q , 然后计算 p , q p, q p,q 的大小关系,按结果分别记为0,1, 最后得到128位的二进制数。匹配的时候在第二幅图像中也用相同的选点方法,最后比较两幅图像中关键点描述子距离(二进制的字串衡量就是汉明距离)。

1.4 总结

通过图像特征点的对应关系,解决了SLAM最重要的一步:同一个点在不同图像中如何检测出来
特征匹配的方法有:

  • 暴力匹配(Brute-Force Matcher): 第二幅图像中每个点都计算其在第一幅图对应的特征点,运算量大;
  • 快速最近邻(FLANN): 适用于匹配点数量多
  • 。。。

2. 对极几何,对极约束

目的是求相机运动 R , t R, t R,t,内参一般知道

这是2D-2D的单目情形,假设相机经过一次运动 R , t R, t R,t 后得到的两帧图如下:

【视觉SLAM入门】5.1. 特征提取和匹配--FAST,ORB(关键点描述子),2D-2D对极几何,本质矩阵,单应矩阵,三角测量,三角化矛盾,# VSLAM,自动驾驶-SLAM,矩阵,计算机视觉,线性代数,SLAM,算法
其中点和线定义如下:

  • p 1 , p 2 p_1,p_2 p1,p2 : 分别同一个点在两帧下的投影点
  • O 1 , O 2 O_1, O_2 O1,O2 : 相机光心
  • P P P : 真实世界中的点
  • I 1 , I 2 I_1, I_2 I1,I2 : 两帧图像
  • O 1 O 2 连线 O_1O_2连线 O1O2连线基线
  • e 1 , e 2 e_1, e_2 e1,e2 : O 1 O 2 O_1O_2 O1O2 I 1 , I 2 I_1,I_2 I1,I2 的交点,也叫极点
  • 极平面 O 1 , O 2 , P O_1,O_2,P O1,O2,P 所在平面
  • 极线 l 1 , l 2 l_1, l_2 l1,l2

如果没有深度信息,则 O 1 P O_1P O1P 直线上任一点投影都在 p 1 p_1 p1,且他在第二帧图像上的轨迹在 极线 p 2 e 2 p_2e_2 p2e2 上,所以有真确的匹配,就可以推断 P P P 的位置,然后得到相机的运动。

2.1 本质矩阵(对极约束)

推理部分略,详见《视觉SLAM十四讲》第七章7.3节,这里给出结果。
仍参考上图,取两个像素点归一化平面上的点 x 1 , x 2 x_1,x_2 x1,x2
x 1 = K − 1 p 1 , x 2 = K − 1 p 2 x_1=K^{-1}p_1,\qquad\qquad x_2 = K^{-1}p_2 x1=K1p1,x2=K1p2
最终的对极约束 为:
p 2 T K − T t \qquad\qquad\qquad\qquad\qquad\qquad\qquad\qquad\qquad\qquad p_2^TK^{-T}t p2TKTt^ R K − 1 p 1 = 0 RK^{-1}p_1 = 0 RK1p1=0

它的含义是 O 1 , O 2 , P O_1,O_2,P O1O2,P 三点共面。从式中心部分,记本质矩阵 E \boldsymbol E E基础矩阵 F \boldsymbol F F 如下:

E = t \qquad\qquad\qquad\qquad\qquad\qquad\qquad E=t E=t^ R F = K − T E K − 1 x 2 T E x 1 = p 2 T F p 1 = 0 R\qquad\qquad F=K^{-T}EK^{-1}\qquad\qquad x_2^TEx_1=p_2^TFp_1=0 RF=KTEK1x2TEx1=p2TFp1=0

可以看出 E \boldsymbol E E F \boldsymbol F F 只差内参 K K K (已知),所以二者 求一即可。
不妨以 E = t E=t E=t^ R R R来求解。则后续工作如下:

  1. 根据已匹配点对,求出 E \boldsymbol E E F \boldsymbol F F
  2. 根据 E \boldsymbol E E F \boldsymbol F F,求出相机运动 R , t \boldsymbol {R,t} R,t

2.1.1 求解本质矩阵

探究本质矩阵的特点:

    1. 由对极约束 x 2 T E x 1 = 0 x_2^TEx_1=0 x2TEx1=0 , 所以它在不同尺度下等价,左右乘依旧满足约束。又因为 E = t E=t E=t^ R R R, 原本有6个自由度,故去掉尺度,还有5个自由度
    1. E 的内在性质 E的内在性质 E的内在性质 : 它的奇异值必定是 [ δ , δ , 0 ] T [\delta ,\delta, 0]^T [δδ0]T 的形式,非线性的性质。

求解依据:
x 2 T E x 1 = 0 ( 1 ) x_2^TEx_1 = 0 \qquad\qquad\qquad\qquad (1) x2TEx1=0(1)
理论上可以用5对点来求解,但是很麻烦。故用 八点法 求解(由于尺度不变性)。

1.首先考虑一对点(归一化坐标 x 1 , x 2 x_1, x_2 x1,x2 ): 将(1)式展开:
( u 1 , v 1 , 1 ) ( e 1 e 2 e 3 e 4 e 5 e 6 e 7 e 8 e 9 ) ( u 2 v 2 1 ) = 0       ⇓ 将 e 展开       e = [ e 1 , e 2 , e 3 , e 4 , e 5 , e 6 , e 7 , e 8 , e 9 ]       ⇓ 展开并重写       [ u 1 u 2 , u 1 v 2 , u 1 , v 1 u 2 , v 1 v 2 , v 1 , u 2 , v 2 , 1 ] ⋅ e = 0    ⇓ 考虑 8 对点的方程组 (u_1, v_1,1)\begin{pmatrix} e_1\quad e_2\quad e_3 \\e_4\quad e_5\quad e_6 \\e_7\quad e_8\quad e_9 \end{pmatrix}\begin{pmatrix} u_2\\v_2\\1 \end{pmatrix}=0 \quad\\\; \\\;\Downarrow 将e展开 \\\;\\\;e=[e_1,e_2,e_3,e_4,e_5,e_6,e_7,e_8,e_9]\\\;\\\; \Downarrow展开并重写\\\;\\\; [u_1u_2,u_1v_2,u_1,v_1u_2,v_1v_2,v_1,u_2,v_2,1]\cdot e = 0 \\\;\\\Downarrow考虑8对点的方程组 (u1,v1,1) e1e2e3e4e5e6e7e8e9 u2v21 =0e展开e=[e1,e2,e3,e4,e5,e6,e7,e8,e9]展开并重写[u1u2,u1v2,u1,v1u2,v1v2,v1,u2,v2,1]e=0考虑8对点的方程组
【视觉SLAM入门】5.1. 特征提取和匹配--FAST,ORB(关键点描述子),2D-2D对极几何,本质矩阵,单应矩阵,三角测量,三角化矛盾,# VSLAM,自动驾驶-SLAM,矩阵,计算机视觉,线性代数,SLAM,算法
至此,本质矩阵的求解结束

2.1.2 恢复相机运动 R , t R,t Rt

  1. E \boldsymbol E E 做SVD分解
    E = U ∑ V T ( U , V 正交阵, ∑ 为奇异矩阵且 = d i a g ( δ , δ , 0 ) ) E=U\sum V_T\qquad\qquad (U,V正交阵,\sum 为奇异矩阵且=diag(\delta,\delta,0)) E=UVT(U,V正交阵,为奇异矩阵且=diag(δ,δ,0))
  2. 求解较为复杂,这里给出结果
    【视觉SLAM入门】5.1. 特征提取和匹配--FAST,ORB(关键点描述子),2D-2D对极几何,本质矩阵,单应矩阵,三角测量,三角化矛盾,# VSLAM,自动驾驶-SLAM,矩阵,计算机视觉,线性代数,SLAM,算法一共存在4组解。如下:
    【视觉SLAM入门】5.1. 特征提取和匹配--FAST,ORB(关键点描述子),2D-2D对极几何,本质矩阵,单应矩阵,三角测量,三角化矛盾,# VSLAM,自动驾驶-SLAM,矩阵,计算机视觉,线性代数,SLAM,算法
    蓝色横线就是相机平面,红色点为投影点。

有(1)满足要求,因为只有这样才符合投影模型,深度才为正。将解出来的解带入验算即可。


2.1.3 本质矩阵调整

5个自由度,用了8个点,上边的方程求解出的 E E E 可能不满足 E E E 的内在性质( ∑ = d i a g ( δ , δ , 0 ) \boldsymbol {\sum = diag(\delta,\delta,0)} =diag(δ,δ,0) ),因此要调整。做法如下:
在做SVD分解时,得到
∑ = d i a g ( δ 1 , δ 2 , δ 3 )    ⇓ 设 δ 1 ≥ δ 2 ≥ δ 3 ,则新的 ∑ 如下    ∑ ′ = d i a g ( δ 1 + δ 2 2 , δ 1 + δ 2 2 , 0 )    ⇓ 带入 S V D 分解式    E = U d i a g ( δ 1 + δ 2 2 , δ 1 + δ 2 2 , 0 ) V T \sum = diag(\delta_1,\delta_2,\delta_3) \\\;\\\Downarrow 设\delta_1\ge\delta_2\ge\delta_3,则新的\sum如下\\\; \\\sum' = diag(\frac{\delta_1+\delta_2}{2}, \frac{\delta_1+\delta_2}{2},0)\\\; \\\Downarrow 带入SVD分解式\\\; \\E=Udiag(\frac{\delta_1+\delta_2}{2}, \frac{\delta_1+\delta_2}{2},0)V^T =diag(δ1,δ2,δ3)δ1δ2δ3,则新的如下=diag(2δ1+δ2,2δ1+δ2,0)带入SVD分解式E=Udiag(2δ1+δ2,2δ1+δ2,0)VT

相当于把求出来的矩阵投影到了 E \boldsymbol E E 的流形上,也可以直接取 ∑ = ( 1 , 1 , 0 ) \sum = (1,1,0) =(1,1,0) (尺度不变性)

2.1.3 遗留问题
  1. E \boldsymbol E E 的尺度不确定性导致了 t \boldsymbol {t} t 的尺度不确定性。(由于 R \boldsymbol R R) 自身带有约束。因此单目SLAM存在初始化: t \boldsymbol t t 的单位为固定尺度1的计算相机运动和特征点;
  2. 单目初始化不能只有纯旋转,必须要有一定的平移: 因为 t \boldsymbol t t 为0,所以 E \boldsymbol E E 最终也为0;
  3. 当点多于8对,此时构成超定方程,我们有两种做法:
  • 3.1. 最小化一个二次型(最小二乘意义下的)
  • 3.2. 随机采样一致性(RANSAC),可以处理有错误匹配的情况,一般用这个。

2.2 单应矩阵(特别提一下)

为什么需要单应矩阵 H H H (Homography)?

  • 当特征点共面,相机纯旋转, F \boldsymbol F F 的自由度少了 t t t ,下降。这就是退化现象。
  • 如果这时仍用八点法求解,多出来的自由度是噪声带来的。
  • 为了避免退化,同时估计基础矩阵 F \boldsymbol F F 和 单应矩阵 H \boldsymbol H H,选择重投影误差小的矩阵作为最终运动估计矩阵。

H H H 假设的所有特征点位于平面上。

详细推导内容见SLAM十四讲7.3.3 。根据法平面做的,求解与 E 和 F E和F EF 相似。只需要4对匹配点就可以算出。

2.3 三角测量(Triangulation)—深度信息

  • 计算深度:回想相机模型那一节,这里的深度就是之前被我们固定为1的 s \boldsymbol s s 。以第一帧图像为坐标原点,由以上对极约束内容有:
    s 1 x 1 = s 2 R x 2 + t    ⇓ 分别单独计算,左乘 x 1 的反对称矩阵 s_1x_1 = s_2Rx_2+t \\\; \\\Downarrow 分别单独计算,左乘x_1的反对称矩阵 s1x1=s2Rx2+t分别单独计算,左乘x1的反对称矩阵
    s 1 ( x 1 \qquad\qquad\qquad\qquad\qquad\qquad\qquad\qquad s_1(x_1 s1(x1^ ) x 1 = 0 = s 2 ( x 1 )x_1=0=s_2(x_1 )x1=0=s2(x1 ^ )    R x 2 + ( x 1 )\;Rx_2+(x_1 )Rx2+(x1 ^ ) t )t )t

  • 可以直接求得深度 s 1 , s 2 \boldsymbol {s_1,s_2} s1,s2 。但是由于噪声的存在,我们一般是求最小二乘解,而不是零解。同样由于尺度不确定性,我们只知道深度对于t的数量,而不知道具体究竟是多少米。

  • 三角化矛盾: 平移越大三角化越精确,但是视野越短,反之亦然。文章来源地址https://www.toymoban.com/news/detail-636387.html

到了这里,关于【视觉SLAM入门】5.1. 特征提取和匹配--FAST,ORB(关键点描述子),2D-2D对极几何,本质矩阵,单应矩阵,三角测量,三角化矛盾的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • 随手笔记——演示如何提取 ORB 特征并进行匹配

    演示如何提取 ORB 特征并进行匹配 特征点由关键点(Key-point)和描述子(Descriptor)两部分组成。 ORB 特征亦由关键点和描述子两部分组成。它的关键点称为“Oriented FAST”,是一种改进的 FAST 角点。它的描述子称为 BRIEF(Binary Robust Independent Elementary Feature)。因此,提取ORB 特征

    2024年02月16日
    浏览(38)
  • python opencv orb特征点提取匹配然后图像拼接

    opencv 基于ORB特征点图像拼接_特征点 warpperspective-CSDN博客 图像用这儿的 右边多出了一部分黑色的,应该是重复部分的宽

    2024年01月19日
    浏览(51)
  • Opencv 之ORB特征提取与匹配API简介及使用例程

    ORB因其速度较快常被用于视觉SLAM中的位姿估计、视觉里程、图像处理中的特征提取与匹配及图像拼接等领域 本文将详细给出使用例程及实现效果展示 创建 检测 计算 检测与计算 绘制特征点 绘制匹配点对 讲述特征点提取与描述子计算,实现如下: 暴力匹配实现: 其效果如

    2024年02月13日
    浏览(44)
  • ORB_SLAM2算法中如何计算右目和左目两个特征点的是否匹配?

    在进行特征匹配时使用的循环。 vCandidates 是

    2024年02月06日
    浏览(44)
  • 计算机视觉:特征提取与匹配

    目录 1. 特征提取和匹配 1.1 背景知识 1.2 特征匹配基本流程 1.3 局部特征描述子 2. Harris角点检测  2.1 角点(corner points) 2.2 HARRIS角点检测基本思想 2.3 HARRIS检测:数学表达 2.4 角点响应函数 2.5 编程实现 2.5.1 角点检测代码实现  2.5.2 角点检测数据测试 3.  SIFT特征匹配算法

    2024年02月06日
    浏览(42)
  • OpenCV实现FAST算法角点检测 、ORB算法特征点检测

    目录 1 Fast算法 1.1 Fast算法原理 1.2  实现办法 1.2.1  机器学习的角点检测器 1.2.2  非极大值抑制 1.3  代码实现 1.4  结果展示 2 ,ORB算法 2.1代码实现 2.2 结果展示 FAST算法角点检测原理: FAST算法(Features from Accelerated Segment Test)是一种快速的角点检测算法,用于检测图像中的关

    2024年02月03日
    浏览(45)
  • OpenCV中的人脸关键点检测和人脸特征提取如何实现?

    在OpenCV中,人脸关键点检测和人脸特征提取是常见的计算机视觉任务。OpenCV提供了一些用于实现这些任务的函数和算法。下面将介绍如何在OpenCV中实现人脸关键点检测和人脸特征提取。 1. 人脸关键点检测 人脸关键点检测是指识别和定位人脸上的关键点,如眼睛、鼻子、嘴巴

    2024年02月03日
    浏览(63)
  • Python点云处理(五)点云特征点/关键点提取算法(上)

    上一篇介绍了几种常见的点云下采样算法,这些算法得到的点云都不会强化特征,因为其计算原理要么是随机要么是根据格网或半径方式。 点云关键点提取是指从一个点云数据集中提取出一些重要的点,以便用于后续的点云分析和处理。 在点云处理中,关键点通常包括高曲

    2024年02月11日
    浏览(40)
  • 计算机视觉:利用RANSAC算法优化关键点匹配

    随机抽样一致算法(RANdom SAmple Consensus,RANSAC),采用迭代的方式从一组包含离群的被观测数据中估算出数学模型的参数。RANSAC算法被广泛应用在计算机视觉领域和数学领域,例如直线拟合、平面拟合、计算图像或点云间的变换矩阵、计算基础矩阵等方面。     RANSAC算法假

    2024年02月06日
    浏览(56)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包