【OpenCV 例程 300篇】251. 特征匹配之暴力匹配

这篇具有很好参考价值的文章主要介绍了【OpenCV 例程 300篇】251. 特征匹配之暴力匹配。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

『youcans 的 OpenCV 例程300篇 - 总目录』


【youcans 的 OpenCV 例程 300篇】251. 特征匹配之暴力匹配


特征匹配是特征检测和特征描述的基本应用,在在图像拼接、目标识别、三维重建等领域的应用非常广泛。
基于特征描述符的特征点匹配是通过对两幅图像的特征点集合内的关键点描述符的相似性比对来实现的。分别对参考图像(Reference image)和检测图像(Observation image)建立关键点描述符集合,采用某种距离测度作为关键点描述向量的相似性度量。当参考图像中的关键点描述符R_i与检测图像中的关键点描述符S_j的距离测度d(R_i,S_j )满足设定条件时,判定(R_i,S_j )是配对的关键点描述符。


1. 暴力匹配(Brute-force matcher)

暴力匹配(Brute-force matcher)是最简单的二维特征点匹配方法。对于从两幅图像中提取的两个特征描述符集合,对第一个集合中的每个描述符 R i R_i Ri,从第二个集合中找出与其距离最小的描述符 S j S_j Sj作为匹配点。
暴力匹配显然会导致大量错误的匹配结果,还会出现一配多的情况。通过交叉匹配或设置比较阈值筛选匹配结果的方法可以改进暴力匹配的质量。
如果参考图像中的描述符 R i R_i Ri与检测图像中的描述符 S j S_j Sj的互为最佳匹配,则称 ( R i , S j ) (R_i,S_j ) (Ri,Sj)为一致配对。交叉匹配通过删除非一致配对来筛选匹配结果,可以避免出现一配多的错误。
比较阈值筛选是指对于参考图像的描述符 R i R_i Ri,从检测图像中找到距离最小的描述符 S j 1 S_j1 Sj1和距离次小的描述符 S j 2 S_j2 Sj2。设置比较阈值 t ∈ [ 0.5 , 0.9 ] t∈[0.5,0.9] t[0.5,0.9],只有当最优匹配距离与次优匹配距离满足阈值条件 d ( R i , S j 1 ) ⁄ d ( R i , S j 2 ) > t d(R_i,S_j1) ⁄ d(R_i,S_j2)>t d(Ri,Sj1)d(Ri,Sj2)>t时,表明匹配描述符 S j 1 S_j1 Sj1具有显著性,才接受匹配结果 ( R i , S j 1 ) (R_i,S_j1) (Ri,Sj1)


2. OpenCV 的 BFMatcher类

在OpenCV中提供了cv::BFMatcher类实现暴力匹配。
在Python语言中通过接口函数cv.BFMatcher_create或cv.BFMatcher.create实例化BFMatcher类,创建BFMatcher对象。通过成员函数bf.match对两个描述符集合进行暴力匹配,函数bf.knnMatch对两个描述符集合进行K近邻匹配。

函数原型

cv.BFMatcher.create([, normType, crossCheck]) → retval
cv.BFMatcher_create([, normType, crossCheck]) → retval
bf.match(queryDescriptors, trainDescriptors[, mask]) → matches
bf.knnMatch(queryDescriptors, trainDescriptors, k[, mask, compactResult]) → matches

参数说明

  • normType:距离类型,可选项,默认为欧式距离NORM_L2。
    • NORM_L1:L1范数,曼哈顿距离。
    • NORM_L2:L2范数,欧式距离。
    • NORM_HAMMING:汉明距离。
    • NORM_HAMMING2:汉明距离2,对每2个比特相加处理。
  • crossCheck:交叉匹配选项,可选项,默认为False。
  • queryDescriptors:描述符的查询点集,即参考图像的特征描述符的集合。
  • trainDescriptors:描述符的训练点集,即检测图像的特征描述符的集合。
  • mask:匹配点集的掩码,列表。
  • k:返回匹配点的数量。
  • matches:匹配结果,列表或元组,长度为成功的匹配数量。

注意问题

  • ⑴ 匹配结果是DMatch数据结构,包括:查询点集索引_queryIdx、训练点集索引_trainIdx和匹配距离_distance,可以用如match._distance的方式获取相应的属性值。
  • ⑵ 暴力匹配函数bf.match只返回最优匹配点,返回值matches是列表类型,列表长度为成功的匹配数量,列表元素matches[i]为DMatch数据结构。
  • ⑶ K近邻匹配函数bf.knnMatch对每个特征点返回k个最优的匹配结果,返回值matches是形如(N,k)的元组,N为特征点数量。元组元素matches[i,k]为DMatch数据结构。
  • ⑷ 交叉匹配选项crossCheck默认为False,不进行交叉匹配,返回所有特征匹配结果;True表示只返回互为最佳匹配的结果,删除非一致配对的结果。
  • ⑸ 对于SIFT、SURF描述符,推荐选择欧氏距离L1和L2范数;对于ORB、BRISK、BRIEF描述符,推荐选择汉明距离NORM_HAMMING;对于ORB描述符,当WTA_K=3或4时,推荐使用汉明距离NORM_HAMMING2。

3. 绘制匹配关系函数 cv.drawMatches

在OpenCV中还提供了函数cv.drawMatches,绘制从两个图像中找到的关键点匹配项。

函数原型

cv.drawMatches(img1, keypoints1, img2, keypoints2, matches1to2, outImg[, matchColor, singlePointColor, matchesMask, flags) → outImage
cv.drawMatchesKnn(img1, keypoints1, img2, keypoints2, matches1to2, outImg[, matchColor, singlePointColor, matchesMask, flags] → outImage

参数说明

  • img1、img2:输入图像1、输入图像2。
  • keypoints1、keypoints2:输入图像1、输入图像2中的关键点。
  • matches1to2:绘制的匹配关系,列表,列表元素是匹配结果DMatch。
  • outImg:输出匹配图像,包括图像1、图像2和表示匹配关系的连线。
  • flags:绘制内容的选项标志。
    • DRAW_MATCHES_FLAGS_DEFAULT,默认值,创建匹配输出图像,包括输入图像、匹配关系和单个的关键点。
    • DRAW_MATCHES_FLAGS_NOT_DRAW_SINGLE_POINTS,不绘制没有匹配成功的单个关键点。

4. 例程:特征匹配之暴力匹配(BFMatcher)

本例程先使用SIFT算法特征检测和特征描述,再使用BFMatcher进行特征匹配。例程给出了使用交叉匹配和设置比较阈值筛选匹配结果的实现方法。

# 【1708】特征匹配之暴力匹配(BFMatcher)
import cv2 as cv
from matplotlib import pyplot as plt

if __name__ == '__main__':
    # (1) 读取参考图像
    imgRef = cv.imread("../images/Fig1703a.png", flags=1)
    refer = cv.cvtColor(imgRef, cv.COLOR_BGR2GRAY)  # 参考图像
    height, width = imgRef.shape[:2]  # 图片的高度和宽度
    # 读取或构造检测图像
    imgObj = cv.imread("../images/Fig1703b.png", flags=1)
    object = cv.cvtColor(imgObj, cv.COLOR_BGR2GRAY)  # 目标图像
    # (2) 构造 SIFT 对象,检测关键点,计算特征描述向量
    sift = cv.SIFT.create()  # sift 实例化对象
    kpRef, desRef = sift.detectAndCompute(refer, None)  # 参考图像关键点检测
    kpObj, desObj = sift.detectAndCompute(object, None)  # 检测图像关键点检测
    print("Keypoints: RefImg {}, ObjImg {}".format(len(kpRef), len(kpObj)))  # 2238/1675

    # (3) 特征点匹配,暴力匹配+交叉匹配筛选,返回最优匹配结果
    bf1 = cv.BFMatcher(crossCheck=True)  # 构造 BFmatcher 对象,设置交叉匹配
    matches = bf1.match(desRef, desObj)  # 对描述子 desRef, desObj 进行匹配
    # matches = sorted(matches, key=lambda x: x.distance)
    imgMatches1 = cv.drawMatches(imgRef, kpRef, imgObj, kpObj, matches[:300], None, matchColor=(0,255,0))
    print("(1) bf.match with crossCheck: {}".format(len(matches)))
    print(type(matches), type(matches[0]))
    print(matches[0].queryIdx, matches[0].trainIdx, matches[0].distance)  # DMatch 的结构和用法

    # (4) 特征点匹配,KNN匹配+比较阈值筛选
    bf2 = cv.BFMatcher()  # 构造 BFmatcher 对象
    matches = bf2.knnMatch(desRef, desObj, k=2)  # KNN匹配,返回最优点和次优点 2个结果
    goodMatches = []  # 筛选匹配结果
    for m, n in matches:  # matches 是元组
        if m.distance < 0.7 * n.distance:  # 最优点距离/次优点距离 之比小于阈值0.7
            goodMatches.append([m])  # 保留显著性高度匹配结果
    # good = [[m] for m, n in matches if m.distance<0.7*n.distance]  # 单行嵌套循环遍历
    imgMatches2 = cv.drawMatchesKnn(imgRef, kpRef, imgObj, kpObj, goodMatches, None, matchColor=(0,255,0))
    print("(2) bf.knnMatch:{}, goodMatch:{}".format(len(matches), len(goodMatches)))
    print(type(matches), type(matches[0]), type(matches[0][0]))
    print(matches[0][0].distance)

    plt.figure(figsize=(9, 6))
    plt.subplot(211), plt.axis('off'), plt.title("1. BF MinDistMatch")
    plt.imshow(cv.cvtColor(imgMatches1, cv.COLOR_BGR2RGB))
    plt.subplot(212), plt.axis('off'), plt.title("2. BF KnnMatch")
    plt.imshow(cv.cvtColor(imgMatches2, cv.COLOR_BGR2RGB))
    plt.tight_layout()
    plt.show()

运行结果

Keypoints: RefImg 1058, ObjImg 1015
(1) bf.match with crossCheck: 363
(2) bf.knnMatch:1058, goodMatch:123

程序说明
⑴ 对不同方位和距离拍摄的照片,用SIFT算法进行特征检测和构造特征描述符,特征匹配结果如图17-10所示。
⑵ 子图1是暴力匹配的结果,使用交叉测试进行了筛选。子图2是K近邻匹配的结果,使用阈值测试进行了筛选。图中的连线表示匹配的特征点,单独圆圈表示不匹配的特征点。
⑶ 子图1和子图2的大部分匹配结果都是正确的,但也都存在少数错误的匹配。子图2中的匹配准确率比子图1更高。
⑷ 参考图像中检测出1058个特征点,检测图像中检测出1015个特征点。使用交叉配对测试,得到363组配对;使用比较阈值测试,得到123组配对。阈值测试方法更加严格,准确性也更高。


brute-force matcher,# OpenCV例程/youcans,opencv,python,图像处理,计算机视觉,人工智能



【本节完】

版权声明:
youcans@xupt 原创作品,转载必须标注原文链接:(https://blog.csdn.net/youcans/article/details/128253435)
Copyright 2022 youcans, XUPT
Crated:2022-12-10文章来源地址https://www.toymoban.com/news/detail-788161.html

到了这里,关于【OpenCV 例程 300篇】251. 特征匹配之暴力匹配的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • 【OpenCV 例程300篇】209. HSV 颜色空间的彩色图像分割

    OpenCV 例程200篇 总目录 5.1 HSV 颜色空间的彩色图像分割 HSV 模型是针对用户观感的一种颜色模型。 HSV 颜色空间的各通道分别表示色调(Hue)、饱和度(Saturation)和明度(Value),可以直观地表达色彩的明暗、色调及鲜艳程度。 HSV 颜色空间可以用一个圆锥空间模型来描述。圆

    2024年02月04日
    浏览(46)
  • 【OpenCV 例程300篇】04. 用 matplotlib 显示图像(plt.imshow)

    专栏地址:『youcans 的 OpenCV 例程300篇 - 总目录』 01. 图像的读取(cv2.imread) 02. 图像的保存(cv2.imwrite) 03. 图像的显示(cv2.imshow) 04. 用 matplotlib 显示图像(plt.imshow) 函数 plt.imshow() 用于通过 matplotlib 库显示图像。 函数说明: matplotlib.pyplot.imshow(img[, cmap]) OpenCV 使用 BGR 格式

    2024年02月04日
    浏览(59)
  • E053-web安全应用-Brute force暴力破解初级

    web安全应用 中级 【任务场景】 小王接到磐石公司的邀请,对该公司旗下的网站进行安全检测,经过一番检查发现该论坛的后台登录页面上可能存在万能密码漏洞,导致不知道账号密码也能登录后台,造成用户的隐私信息的泄露、网页被篡改、网页被挂马、服务器被远程控制

    2024年02月07日
    浏览(82)
  • dvwa靶场Brute Force(暴力破解)全难度教程(附代码分析)

    建议使用owaspbwa靶场可以不用搭建dvwa以及其他常用靶场,省去搭建靶场的困扰,但是此靶机靶场较老,并不建议使用 owaspbwa下载地址: OWASP Broken Web Applications Project download | SourceForge.net 注:owaspbwa的本机用户名root密码owaspbwa,记得看看靶机的ip方便以后使用。dvwa的用户名和密

    2024年02月09日
    浏览(47)
  • DVWA(1)暴力破解(Brute Force) LOW-HIGHT 操作记录

    初次接触DVWA,写下自己的操作记录,希望可以帮助每个刚接触DVWA的新手,同时希望可以提升自己的技术。注:如有操作不当的地方希望可以得到大神指导、交流。也感谢之前查阅的各种大神提供的博客。 观察源代码,发现没有添加防护措施。 首先第一种方法我们可以使用万

    2024年02月08日
    浏览(100)
  • opencv学习-特征匹配

    opencv特征匹配方法有两种,分别是: BF(Brute-Force),暴力特征匹配方法。它使用第一组中的每个特征的描述子,与第二组中的所有特征描述子进行匹配,计算它们之间的差距,然后将最接近一个匹配返回。 在进行批量特征匹配时,FLANN速度更快。 由于它使用的是邻近近似值

    2024年02月13日
    浏览(38)
  • OpenCV之特征点匹配

            特征点探测方法有goodFeaturesToTrack(),cornerHarris()和SURF()。一般使用goodFeaturesToTrack()就能获得很好的特征点。goodFeaturesToTrack()定义: image:源图像; corners:检测到的特征点位置; maxcorner:为返回的特征点个数设置上限。 qualityLevel:反映出一个角形特征在它之前的强度,设

    2024年02月12日
    浏览(39)
  • OpenCV实战(18)——特征匹配

    在关键点检测一节中,我们学习了如何检测图像中的关键点,其目的是用于执行局部图像分析。这些关键点需要足够独特,以便在具有相同对象的不同图像中能够检测到相同的点。 基于关键点执行图像分析需要构建丰富的表示来唯一地描述这些关键点,本节将重点介绍如何从

    2024年02月03日
    浏览(46)
  • opencv特征匹配算法原理

    算法步骤: FAST进行特征点提取是根据当前点领域内的点的差值作为特征点的筛选标准 ( 1 ) 选择像素 p ,该像素值为 I p ,确定筛选阈值 T ( 2 ) 计算以 p 为圆心 3 为半径的 16 个像素点的灰度值 I x 和圆心 p 的灰度值 I p 的差值,如果存在连续 n 个点(算法第一个版本为 12 ) 满

    2024年02月03日
    浏览(46)
  • OpenCV(四十六):特征点匹配

    1.特征点匹配的定义         特征点匹配是一种在两幅图像中寻找相互对应的特征点,并建立它们之间的对应关系的过程。 具体而言,首先通过特征检测算法在两幅图像中寻找相互对应的特征点,然后,对于每个特征点,通过描述子提取算法计算其描述子,最后,使用匹配算

    2024年02月07日
    浏览(59)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包