【OpenCV】双目相机标定、极线矫正、SIFT匹配以及深度估计

这篇具有很好参考价值的文章主要介绍了【OpenCV】双目相机标定、极线矫正、SIFT匹配以及深度估计。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

双目标定

双目标定有很多示例,就不多讲,直接放代码

criteria = (cv2.TERM_CRITERIA_EPS + cv2.TERM_CRITERIA_MAX_ITER, 100, 0.0001)
objp = np.zeros((8*6,3), np.float32) # 8*6 为标定板角点数,根据实际修改
objp[:,:2] = np.mgrid[0:6,0:8].T.reshape(-1,2)
objp *= 25 # 标定板小格子的宽度 (单位mm)
size=(704,576) # 相机分辨率
objpoints_left = [] # 3D points for storing world coordinates
objpoints_right = []
imgpoints_left = [] # 2D points for storing picture coordinates
imgpoints_right = []

images_left = glob.glob('input/calib/left/*.jpg') #左相机标定图片存放位置
for fname in images_left:
    img_left = cv2.imread(fname)
    gray_left = cv2.cvtColor(img_left,cv2.COLOR_BGR2GRAY)
    # Find the corner of chessboard
    ret_left, corners_left = cv2.findChessboardCorners(gray_left, (6,8),None)
    # If found, add the corner information to the list
    if ret_left == True:
        objpoints_left.append(objp)
        #Finding subpixel corners
        cv2.cornerSubPix(gray_left,corners_left,(5,5),(-1,-1),criteria)
        imgpoints_left.append(corners_left)
        # Show corners found
        cv2.drawChessboardCorners(img_left, (6,8), corners_left, ret_left)
        img_left=cv2.resize(img_left, (0,0), fx=0.5, fy=0.5)
        cv2.imshow('img',img_left)
        cv2.waitKey(200)# 延迟200ms是为了方便观看效果

cv2.destroyAllWindows()
ret_left, mtx_left, dist_left, rvecs_left, tvecs_left = cv2.calibrateCamera(objpoints_left, imgpoints_left, size,None,None,flags=cv2.CALIB_FIX_K3)

print('mtx_left')
print(mtx_left)
print('dist_left')
print(dist_left)

images_right = glob.glob('input/calib/right/*.jpg') # 右相机标定图片存放位置
# 同上
for fname in images_right:
    
    img_right = cv2.imread(fname)
    gray_right = cv2.cvtColor(img_right,cv2.COLOR_BGR2GRAY)

    ret_right, corners_right = cv2.findChessboardCorners(gray_right, (6,8),None)
    if ret_right == True:
        objpoints_right.append(objp)

        cv2.cornerSubPix(gray_right,corners_right,(5,5),(-1,-1),criteria)
        imgpoints_right.append(corners_right)

        cv2.drawChessboardCorners(img_right, (6,8), corners_right, ret_right)
        img_right=cv2.resize(img_right, (0,0), fx=0.5, fy=0.5)
        cv2.imshow('img',img_right)

        cv2.waitKey(200)

cv2.destroyAllWindows()
ret_right, mtx_right, dist_right, rvecs_right, tvecs_right = cv2.calibrateCamera(objpoints_right, imgpoints_right, size, None, None,flags=cv2.CALIB_FIX_K3)

print('mtx_right')
print(mtx_right)
print('dist_right')
print(dist_right)
print("----------------------------------------------")

ret,cameraMatrix1, distCoeffs1, cameraMatrix2, distCoeffs2, R, T, E, F=cv2.stereoCalibrate(objpoints_left, imgpoints_left, imgpoints_right, mtx_left, dist_left,  mtx_right, dist_right, gray_left.shape[::-1],criteria,None) #双目标定函数
# print('cameraMatrix1')
# print(cameraMatrix1)
print('R')
print(R)
print('T')
print(T)

R1, R2, P1, P2, Q, validPixROI1, validPixROI2 = cv2.stereoRectify(mtx_left, dist_left, mtx_right, dist_right, size, R, T)
print('Q') 
print(Q)

print('R1')
print(R1)
print('P1')
print(P1)
print('R2')
print(R2)
print('P2')
print(P2)
print("----------------------------------------------")

# ----------------------------------------------------------------------------
# The above part is to calculate the camera parameters, just run it once
# You can save the parameters in a file for easy calling
# This function is not implemented yet and is being implemented
# ----------------------------------------------------------------------------

left_map1, left_map2 = cv2.initUndistortRectifyMap(mtx_left, dist_left, R1, P2, size, cv2.CV_16SC2) 
right_map1, right_map2 = cv2.initUndistortRectifyMap(mtx_right, dist_right, R2, P1, size, cv2.CV_16SC2)

有个小技巧就是可以先使用matlab标定箱试一下,把误差过大的左右相机图片剔除,保证精度

直接打开双目相机处理图片:(这块代码没测试过,不保证一定正确)

# Turn on the camera to get the left and right views, but they haven't been tested

cap1 = cv2.VideoCapture(0)  # left
cap2 = cv2.VideoCapture(1)  # right
cap1.set(cv2.CAP_PROP_FRAME_WIDTH, 704)  # 分辨率设置
cap1.set(cv2.CAP_PROP_FRAME_HEIGHT, 576)  # 分辨率设置

cap2.set(cv2.CAP_PROP_FRAME_WIDTH, 704)  # 分辨率设置
cap2.set(cv2.CAP_PROP_FRAME_HEIGHT, 576)  # 分辨率设置

curent_cap = False  # 如果直接打开相机处理,则设置为True

while(curent_cap): # 这里只是先保存图片,如果想要实时处理,可以把后面代码放到这个循环里
    ret1 ,frame1 = cap1.read()
    ret2, frame2 = cap1.read()
    frame = np.hstack([frame1, frame2])
    frame = cv2.resize(frame, (0, 0), fx=1, fy=1)  # 缩放系数,只是显示用,不影响实际大小
    cv2.imshow("capture", frame)
    k=cv2.waitKey(40)
    if k==ord('q'):
       break
    if k==ord('s'):
        cv2.imwrite("cap/left/cap.jpg",frame1)
        cv2.imwrite("cap/right/cap.jpg", frame2)
        cap1.release()
        cap2.release()
        break
#--------------------------------------------

极线校正

frame1 = cv2.imread("input/underwear_trepang/trepang_left/trepang left_1.jpg")
frame2 = cv2.imread("input/underwear_trepang/trepang_right/trepang right_1.jpg")  #frame1 is left, frame2 is right
#--------------------------------------------
img1_rectified = cv2.remap(frame1, left_map1, left_map2, cv2.INTER_LINEAR)
img2_rectified = cv2.remap(frame2, right_map1, right_map2, cv2.INTER_LINEAR)
img1_copy=img1_rectified.copy()
img2_copy=img2_rectified.copy()
cv2.imwrite("output\\left_rectified.jpg", img1_copy)
cv2.imwrite("output\\right_rectified.jpg", img2_copy)

i = 40 # 可视化检查极线校正效果
while(1):
    cv2.line(img1_rectified, (0, i), (size[0], i), (0, 255, 0), 1)
    cv2.line(img2_rectified, (0, i), (size[0], i), (0, 255, 0), 1)
    i += 40
    if i > size[1]:
        break

imgsall = np.hstack([img1_rectified,img2_rectified])
cv2.imwrite("output\\rectified.jpg", imgsall)
imgL = cv2.cvtColor(img1_copy, cv2.COLOR_BGR2GRAY)
imgR = cv2.cvtColor(img2_copy, cv2.COLOR_BGR2GRAY)

【OpenCV】双目相机标定、极线矫正、SIFT匹配以及深度估计

SIFT匹配

匹配:

sift = cv2.xfeatures2d.SIFT_create()
kp1, des1 = sift.detectAndCompute(img1_copy, None)
kp2, des2 = sift.detectAndCompute(img2_copy, None)
# BFMatcher with default params
bf = cv2.BFMatcher()
matches = bf.knnMatch(des1, des2, k=2)
# good = [[m] for m, n in matches if m.distance < 0.7 * n.distance]
good = [] # It is used to store good matching point pairs
point = [] # Used to store matching point to coordinate

过滤:

for i, (m1, m2) in enumerate(matches): # Filter out the unqualified point pairs
    if m1.distance < 1.5 * m2.distance: # 过滤条件1:欧式距离
        # Filter condition 1: the smaller the Euclidean distance
        # between two feature vectors, the higher the matching degree
        if (label_top[0] < kp1[m1.queryIdx].pt[0] < label_bottom[0] and
        label_top[1] < kp1[m1.queryIdx].pt[1] < label_bottom[1]):
            if abs(kp1[m1.queryIdx].pt[1] - kp2[m1.trainIdx].pt[1]) < 5: # 过滤条件2:水平像素高度差
                # Filter condition 2: because the epipolar line has been
                # corrected, the matching point pair should be on the horizontal
                # line, and a threshold of 10 pixels can be set, which can be smaller
                good.append([m1])
                pt1 = kp1[m1.queryIdx].pt  # trainIdx    是匹配之后所对应关键点的序号,第一个载入图片的匹配关键点序号
                pt2 = kp2[m1.trainIdx].pt  # queryIdx  是匹配之后所对应关键点的序号,第二个载入图片的匹配关键点序号
                # print(i, pt1, pt2)
                point.append([pt1, pt2])
img4 = cv2.drawMatchesKnn(img1_copy, kp1, img2_copy, kp2, matches, None, flags=2)
cv2.imwrite("output\SIFT_MATCH_no_filter.jpg", img4)
img4 = cv2.resize(img4, (0,0), fx=0.6, fy=0.6)
cv2.imshow("sift-no_filter", img4)
img3 = cv2.drawMatchesKnn(img1_copy, kp1, img2_copy, kp2, good, None, flags=2)
cv2.rectangle(img3, label_top, label_bottom, (0, 0, 255), 2)
cv2.imwrite("output\SIFT_MATCH_filtered.jpg", img3)
img3 = cv2.resize(img3, (0,0), fx=0.6, fy=0.6) # Zoom 0.6 times
cv2.imshow("sift_filtered", img3)

这里过滤条件2需要注意一下,因为我们是进行了极线校正的,所以理论上左右视图相同的点应该在同一条水平线上,即像素高度应该一致,所以这里采用了过滤掉像素高度差大于5的匹配点对

深度估计

def img2_3D(target_point,label_top, label_bottom, point_cloud, Q):
    # target_ x, target_ Y is the coordinate of the point we want
    # to measure the distance. Because the point does not necessarily
    # match, we will search for the nearest matching point pair, and
    # use the distance of the point pair to approximate the distance
    # of the point we want
    final_point = []
    min_distance = 1000000
    for i in range(len(point)):
        distance = (target_point[0] - point_cloud[i][0][0]) ** 2 \
                   + (target_point[1] - point_cloud[i][0][1]) ** 2
        if distance < min_distance :
            final_point = point[i]
            min_distance = distance
    # print(final_point)


    new_img=np.zeros(size,dtype=np.float32)

    x = int(final_point[0][0])
    y = int(final_point[0][1])
    print("input coordinates of the point:({}, {})".format(target_point[0], target_point[1]))
    print("The point coordinates closest to the input point:({}, {})".format(x, y))
    cv2.circle(img1_copy, (x, y), 3, (0, 0, 255), -1)
    cv2.circle(img1_copy, (target_point[0], target_point[1]), 3, (0, 255, 0), -1)
    disp = final_point[0][0] - final_point[1][0]
    print("Parallax at this point: ", disp)

    new_img[x][y] = disp
    threeD = cv2.reprojectImageTo3D(new_img, Q)
    print("The three-dimensional coordinates of the point are: ", threeD[x][y])
    print("The depth of the point is: {:.2f} m".format(threeD[x][y][2] / 1000))

img2_3D(target_point, label_top, label_bottom, point, Q) # 调用函数,前两个参数就是想要测距的坐标

整个代码放在了我的github上,下载即可直接运行,链接:https://github.com/Hozhangwang/Stereo_Calibration_and_estimated_distance_use_SIFT_in_OpenCV创作不易,可以的话帮忙在github上帮忙点颗星

最终效果展示:
相机标定结果:
【OpenCV】双目相机标定、极线矫正、SIFT匹配以及深度估计
极线校正结果:

【OpenCV】双目相机标定、极线矫正、SIFT匹配以及深度估计
匹配结果:
过滤前:
【OpenCV】双目相机标定、极线矫正、SIFT匹配以及深度估计
过滤后:
【OpenCV】双目相机标定、极线矫正、SIFT匹配以及深度估计
寻找最近的匹配点:
【OpenCV】双目相机标定、极线矫正、SIFT匹配以及深度估计
这里绿色点是想要进行深度估计的点,红色点是找到的最近的匹配到的点,估算深度并作为最终结果,因为不可能你选的点都能匹配成功,所以采用的这种方法,有一定误差,但是不会太大。

最终结果:

input coordinates of the point:(624, 341)
The point coordinates closest to the input point:(629, 297)
Parallax at this point:  254.74746704101562
The three-dimensional coordinates of the point are:  [-20.767252 177.53214  875.65    ]
The depth of the point is: 0.88 m

联系方式github上readme里有,如果我写的不够清楚可以找我交流。文章来源地址https://www.toymoban.com/news/detail-465408.html

到了这里,关于【OpenCV】双目相机标定、极线矫正、SIFT匹配以及深度估计的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • OpenCV快速入门:相机标定——单目视觉和双目视觉

    在当今科技日益发展的时代,计算机视觉作为人工智能的重要分支,已经深入到我们生活的各个领域。在这个广阔的领域中,相机标定是一个基础且关键的步骤,它直接影响到视觉系统的精度和效能。尤其是在单目视觉和双目视觉的应用中,准确的相机标定成为了实现高效和

    2024年02月05日
    浏览(48)
  • 相机标定和双目相机标定标定原理推导及效果展示

      参考了一些大佬的文章,整理了一下相机标定和双目标定的原理和推导。   摄像机成像就是空间场景投影至二维图像平面的空间变换过程。摄像机标定的要解决两个问题:首先确定三维空间点与像素平面像素点间的转换关系,即求解相机内外参;然后确定相机成像过程中

    2023年04月09日
    浏览(47)
  • 双目立体匹配中的极线约束(Epipolar Constraint),基础矩阵(Fundamental Matrix),本质矩阵(Essential Matrix),对极几何(2D-2D)

    考虑一个SLAM中一个常见的问题:如果两个相机在不同位置拍摄同一个物体,或者一个运动的相机在不同时刻拍摄同一物体,我们有理由相信两张图片中各点存在着某种几何关系,这种关系可以用对极几何来描述。对极几何描述了两帧图像中各像素的射影关系(或者说是各匹配

    2024年02月05日
    浏览(40)
  • 从双目标定到立体匹配:pyton实践指南

    立体匹配是计算机视觉中的一个重要领域,旨在将从不同角度拍摄的图像匹配起来,以创建类似人类视觉的3D效果。实现立体匹配的过程需要涉及许多步骤,包括双目标定、立体校正、视差计算等。在这篇文章中,将介绍如何使用Python实现立体匹配的基本步骤和技巧。 下面的

    2024年02月11日
    浏览(45)
  • 基于Matlab的双目相机标定

    第一步,打开matlab 输入stereoCameraCalibrator ,进入工具箱  第二步:点击add images 第三步:添加图片路径,并且修改尺寸(根据格子边长) 工具箱会弹窗告诉你一共识别到多少组照片,多少组可以用,多少组被工具箱拒绝了。 我这里一共20张图片,都可以  第四步:点击 运行完

    2024年02月04日
    浏览(43)
  • 相机标定小工具(单目+双目)技术分享

    以上就是软件的主要代码,相信大家都可以做出来了。加油!

    2024年02月14日
    浏览(60)
  • 相机的内外参数标定和畸变矫正原理和代码

    相机的成像过程实质上是坐标系转换。首先空间中的点坐标由世界坐标系转换到相机坐标系,然后将其投影到成像平面(图像物理坐标系),最后再将成像平面上的数据转换到图像像素坐标系。但是由于透镜制造精度及组装工艺的差别会引入畸变,导致原始图像的失真。镜头

    2024年04月16日
    浏览(46)
  • 【双目相机】基于matlab的参数标定2-使用matlab标定

    使用双目相机拍照并分割图片: 【双目相机】基于matlab的参数标定1-使用双目相机拍照 照片拍摄好后,进入matlab标定工具箱,如下图所示。可以使用matlab2020a版本。 进入工具箱以后,选择Add Images。 选择左右相机照片的路径,Size of checkerboard square为棋盘中每一个方格的长度,

    2024年02月15日
    浏览(41)
  • 鱼眼相机成像模型以及基于OpenCV标定鱼眼镜头(C++)

    鱼眼镜头一般是由十几个不同的透镜组合而成的,在成像的过程中,入射光线经过不同程度的折射,投影到尺寸有限的成像平面上,使得鱼眼镜头与普通镜头相比起来拥有了更大的视野范围。下图表示出了鱼眼相机的一般组成结构。最前面的两个镜头发生折射,使入射角减小

    2024年02月09日
    浏览(38)
  • kalibr 进行相机单目、双目标定全流程

    参考链接: Installation · ethz-asl/kalibr Wiki · GitHub Docker 操作知识: Docker攻略:从安装到入门到进阶 | Dockerfile调优 | 镜像分层 | 容器生命周期/5种网络模式 |跨宿主机通信_血煞长虹的博客-CSDN博客 部署kalibr步骤如下: 1.拉取镜像 2.创建container 3.进入container 运行以后即可进入con

    2024年02月09日
    浏览(43)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包