基于单目相机的2D测量(工件尺寸和物体尺寸)

这篇具有很好参考价值的文章主要介绍了基于单目相机的2D测量(工件尺寸和物体尺寸)。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

目录

1.简介

2.基于单目相机的2D测量

2.1 想法:

2.2 代码思路

2.2 主函数部分


1.简介

基于单目相机的2D测量技术在许多领域中具有重要的背景和意义。

  1. 工业制造:在工业制造过程中,精确测量是确保产品质量和一致性的关键。基于单目相机的2D测量技术可以用于检测和测量零件尺寸、位置、形状等参数,进而实现自动化生产和质量控制。通过实时监测并反馈测量结果,可以快速发现和纠正生产中的偏差,提高产品的一致性和合格率。

  2. 计算机视觉:单目相机作为计算机视觉的传感器之一,能够捕捉并记录场景中的图像信息。基于单目相机的2D测量技术可以通过对图像进行处理和分析来提取目标物体的特征和参数。这种技术在目标检测、物体跟踪、姿态估计等计算机视觉任务中起着至关重要的作用。

  3. 地理测绘和导航:基于单目相机的2D测量技术可以应用于地理测绘和导航领域。通过获取地面或航空图像,并利用图像处理和计算机视觉算法,可以实现地表特征的提取、地形建模、数字地图的生成等工作。这对于城市规划、农业管理、导航系统等方面具有重要的应用价值。

  4. 医学影像:在医学领域,基于单目相机的2D测量技术可以用于医学影像的分析和测量。通过对医学图像进行处理和分析,可以提取器官、病灶的形状、大小、位置等信息,辅助医生进行诊断和治疗决策。这种技术在影像学、放射学、眼科等医学专业中得到广泛应用。

综上所述,基于单目相机的2D测量技术在工业制造、计算机视觉、地理测绘和导航、医学影像等领域都有着重要的背景和意义。它可以提高生产效率、产品质量,推动科学研究和医学进步,为各个领域带来更多的机遇和挑战。

基于单目相机的2D测量(工件尺寸和物体尺寸),项目设计,opencv实战,单目视觉检测与测量,数码相机,计算机视觉,视觉检测,opencv,python

基于单目相机的2D测量(工件尺寸和物体尺寸),项目设计,opencv实战,单目视觉检测与测量,数码相机,计算机视觉,视觉检测,opencv,python

2.基于单目相机的2D测量

2.1 想法:

因为是静态测量,所以核心测量算法使用仿射变换。

首先拿到参照物区域,进行真实距离和像素距离的尺寸换算

在参照物区域找到物体轮廓,进行多边形拟合,对拟合到的物体进行测量

2.2 代码思路

代码思路的简要描述:

  1. 导入所需的库,包括cv2和自定义的utlis

  2. 初始化一些变量,如是否使用网络摄像机 (webcam)、图像路径 (path)、捕获对象 (cap)、图像缩放比例 (scale)、纸张宽度和高度 (wPhP) 以及上一帧时间 (pTime)。

  3. 进入主循环。在每次循环中,如果使用网络摄像机,则读取图像帧;否则,从指定路径读取图像。

  4. 对图像进行轮廓检测,获取所有检测到的轮廓 (conts) 和最大轮廓 (biggest)。

  5. 使用最大轮廓对图像进行透视变换 (warpImg),得到纸张的鸟瞰图 (imgWarp)。

  6. 对纸张鸟瞰图进行轮廓检测,获取所有检测到的轮廓 (conts2)。

  7. 遍历每个轮廓对象,绘制轮廓线和箭头,并计算测量结果 (纸张宽度 nW 和高度 nH)。

  8. 在图像上绘制测量结果和帧率信息。

  9. 显示原始图像和处理后的图像。

  10. 等待按键,继续下一次循环。

以上是代码的简要思路,具体实现和功能可以参考代码中的注释。

关于复现,你可以准备一张A4纸,一张小卡片,或者边缘信息明显的其他物件,按照图片中方式摆放即可。

像素与真实距离换算为

3像素=1mm

检测帧率可达30帧,误差在2%(误差取决相机分辨率),缺点是无法检测轮廓不清晰的物件以及复杂物体。

下一篇介绍如何测量复杂形状的物体

基于单目相机的2D测量(工件尺寸和物体尺寸),项目设计,opencv实战,单目视觉检测与测量,数码相机,计算机视觉,视觉检测,opencv,python

2.2 主函数部分

import cv2
import utlis
import time

###################################
webcam = True  # 网络摄像机一开始为FALSE
path = '1.jpg'
cap = cv2.VideoCapture(0)  # 使用捕获和cv定义相机-点点视频捕获,,我们将定义id,因此在这种情况下为0
cap.set(10, 160)  # 设置参数,宽度,高度,亮度,为他们中的每一根写入间隙点集,具有不同的亮度id,有十个,所以将其保持为160,然后在宽度和高度上,宽度为3,1920
cap.set(3, 1920)
cap.set(4, 1080)
scale = 3
wP = 270 * scale
hP = 370 * scale
###################################
pTime = 0
while True:
    if webcam:
        success, img = cap.read()
    else:
        img = cv2.imread(path)

    imgContours, conts = utlis.getContours(img, minArea=50000, filter=4)
    if len(conts) != 0:
        biggest = conts[0][2]
        # print(biggest)
        imgWarp = utlis.warpImg(img, biggest, wP, hP)
        imgContours2, conts2 = utlis.getContours(imgWarp,
                                                 minArea=2000, filter=4,
                                                 cThr=[50, 50], draw=False)
        if len(conts) != 0:
            for obj in conts2:
                cv2.polylines(imgContours2, [obj[2]], True, (0, 255, 0), 2)
                nPoints = utlis.reorder(obj[2])
                nW = round((utlis.findDis(nPoints[0][0] // scale, nPoints[1][0] // scale) / 10), 1)
                nH = round((utlis.findDis(nPoints[0][0] // scale, nPoints[2][0] // scale) / 10), 1)
                cv2.arrowedLine(imgContours2, (nPoints[0][0][0], nPoints[0][0][1]),
                                (nPoints[1][0][0], nPoints[1][0][1]),
                                (255, 0, 255), 3, 8, 0, 0.05)
                cv2.arrowedLine(imgContours2, (nPoints[0][0][0], nPoints[0][0][1]),
                                (nPoints[2][0][0], nPoints[2][0][1]),
                                (255, 0, 255), 3, 8, 0, 0.05)
                x, y, w, h = obj[3]
                cv2.putText(imgContours2, '{}cm'.format(nW), (x + 30, y - 10), cv2.FONT_HERSHEY_COMPLEX_SMALL, 1.5,
                            (255, 0, 255), 2)
                cv2.putText(imgContours2, '{}cm'.format(nH), (x - 70, y + h // 2), cv2.FONT_HERSHEY_COMPLEX_SMALL, 1.5,
                            (255, 0, 255), 2)
                cTime = time.time()

                fps = 1 / (cTime - pTime)
                pTime = cTime
                cv2.putText(imgContours2, str(int(fps)), (10, 70), cv2.FONT_HERSHEY_PLAIN, 3,
                            (255, 0, 255), 3)
                # 图像预处理及边缘检测
        cv2.imshow('A4', imgContours2)

    img = cv2.resize(img, (0, 0), None, 0.5, 0.5)
    cv2.imshow('Original', img)
    cv2.waitKey(1)

utlis模块代码

import cv2
import numpy as np
import math
import time
def getContours(img, cThr=[100, 100], showCanny=False, minArea=5000, filter=0, draw=False):
    # 将输入图像转换为灰度图像
    imgGray = cv2.cvtColor(img, cv2.COLOR_BGR2GRAY)
    # 对灰度图像进行高斯模糊
    imgBlur = cv2.GaussianBlur(imgGray, (5, 5), 1)
    # 使用Canny边缘检测算法得到边缘图像
    imgCanny = cv2.Canny(imgBlur, cThr[0], cThr[1])
    # 对Canny边缘图像进行膨胀操作
    kernel = np.ones((5, 5))
    imgDial = cv2.dilate(imgCanny, kernel, iterations=3)
    # 对膨胀后的图像进行腐蚀操作
    imgThre = cv2.erode(imgDial, kernel, iterations=1)
    # gray = cv2.cvtColor(img, cv2.COLOR_BGR2GRAY)
    # blurred = cv2.GaussianBlur(gray, (5, 5), 0)
    # kernal = np.ones((5, 5), np.uint8)
    # blurred = cv2.erode(blurred, kernal)  # 腐蚀
    # blurred = cv2.erode(blurred, kernal)
    # edges = cv2.Canny(blurred, 50, 150)

    # 寻找图像中的轮廓
    contours, hierarchy = cv2.findContours(imgThre, cv2.RETR_EXTERNAL, cv2.CHAIN_APPROX_SIMPLE)
    finalContours = []
    for i in contours:
        area = cv2.contourArea(i)
        # 仅保留面积大于minArea的轮廓
        if area > minArea:
            peri = cv2.arcLength(i, True)
            approx = cv2.approxPolyDP(i, 0.02 * peri, True)
            bbox = cv2.boundingRect(approx)
            if filter > 0:
                # 如果指定了过滤条件,仅保留满足条件的轮廓
                if len(approx) == filter:
                    finalContours.append([len(approx), area, approx, bbox, i])
            else:
                finalContours.append([len(approx), area, approx, bbox, i])
    # 根据面积对轮廓进行排序
    finalContours = sorted(finalContours, key=lambda x: x[1], reverse=True)
    if draw:
        # 将保留的轮廓在原始图像上绘制出来
        for con in finalContours:
            cv2.drawContours(img, con[4], -1, (0, 0, 255), 3)
    return img, finalContours


def dectshow(org_img, boxs):
    img = org_img.copy()
    for box in boxs:
        cv2.rectangle(img, (int(box[0]), int(box[1])), (int(box[2]), int(box[3])), (0, 255, 0), 2)

        x1 = box[0]
        y1 = box[1]
        x2 = box[2]
        y2 = box[3]

        cv2.circle(img, (x1, y1), 5, (0, 0, 255), -1)  # 红色圆点
        cv2.circle(img, (x2, y1), 5, (0, 255, 0), -1)  # 绿色圆点
        cv2.circle(img, (x2, y2), 5, (255, 0, 0), -1)  # 蓝色圆点

        point1 =  [x1, y1]
        point2 =  [x2, y1]
        point3 =  [x2, y2]

        width = math.sqrt((point2[0] - point1[0]) ** 2 + (point2[1] - point1[1]) ** 2)
        height = math.sqrt((point3[0] - point2[0]) ** 2 + (point3[1] - point2[1]) ** 2)
        width = width/3
        height = height/3

        # cv2.imshow('1', img)
        # 计算两点之间的距离

        print("宽 is:", width, "m")
        print("长 is:", height, "m")


        cv2.putText(img, f'W: {str(width)[:4] }mm H: {str(height)[:4]}mm', (int(box[0]), int(box[1]) - 40), cv2.FONT_HERSHEY_SIMPLEX, 0.5,
                    (0, 255, 0), 2)
        cv2.imshow('dec_img', img)

    return img

# 对角点排序函数
def reorder(myPoints):
    myPointsNew = np.zeros_like(myPoints)
    myPoints = myPoints.reshape((4, 2))
    add = myPoints.sum(1)
    myPointsNew[0] = myPoints[np.argmin(add)]
    myPointsNew[3] = myPoints[np.argmax(add)]
    diff = np.diff(myPoints, axis=1)
    myPointsNew[1] = myPoints[np.argmin(diff)]
    myPointsNew[2] = myPoints[np.argmax(diff)]
    return myPointsNew


# 透视变换函数
def warpImg(img, points, w, h, pad=20):
    points = reorder(points)
    pts1 = np.float32(points)
    pts2 = np.float32([[0, 0], [w, 0], [0, h], [w, h]])
    matrix = cv2.getPerspectiveTransform(pts1, pts2)
    imgWarp = cv2.warpPerspective(img, matrix, (w, h))
    imgWarp = imgWarp[pad:imgWarp.shape[0] - pad, pad:imgWarp.shape[1] - pad]
    return imgWarp


# 计算两点之间的距离
def findDis(pts1, pts2):
    return ((pts2[0] - pts1[0]) ** 2 + (pts2[1] - pts1[1]) ** 2) ** 0.5

基于单目相机的2D测量(工件尺寸和物体尺寸),项目设计,opencv实战,单目视觉检测与测量,数码相机,计算机视觉,视觉检测,opencv,python

基于单目相机的2D测量(工件尺寸和物体尺寸),项目设计,opencv实战,单目视觉检测与测量,数码相机,计算机视觉,视觉检测,opencv,python文章来源地址https://www.toymoban.com/news/detail-739617.html

到了这里,关于基于单目相机的2D测量(工件尺寸和物体尺寸)的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • 【单目3D】在自动驾驶中将 2D 物体检测提升到 3D

    单目 3D 目标检测使用 RGB 图像来预测目标 3D 边界框。由于 RGB 图像中缺少关键的深度信息,因此该任务从根本上说是不适定的。然而在自动驾驶中,汽车是具有(大部分)已知形状和大小的刚体。那么一个关键的问题是如何有效地利用汽车的强大先验,在传统 2D 对象检测之上

    2024年02月19日
    浏览(37)
  • opencv-python实战---物体长度尺寸测量

    本文的主要算法实现思路:找一个最小面积的矩形提供长宽由此推算出其他物体的长度 博主只写了测量物体最左最右的长度,只能测量矩形。 如图  最左边的为参照物,然后测量上下两个物体的最左和最右长度。 opencv-python  == 4.7.0.72 numpy == 1.24.2 minArea为图片中最小的识别面

    2024年02月13日
    浏览(44)
  • 【电赛训练】非接触物体尺寸形态测量 2020年电赛G题

    一、题目要求 具体内容详见非接触物体尺寸形态测量(G 题)——行走的皮卡丘 设计并制作一个非接触式物体形状和尺寸自动测量装置,装置的布置图如图 1所示,测量装置放置在图中所示的测量装置区内,被测目标放置在图中被测目标放置区内,装置能测量被测目标的形状

    2024年02月16日
    浏览(56)
  • 基于OpenCV的单目相机标定与三维定位

           相机是产生图像数据的硬件,广泛应用于消费电子、汽车、安防等领域。围绕着相机衍生出一系列的研究与应用领域,包括传统的图像处理和基于深度学习的智能应用等。目前大火的自动驾驶中相机也是重要的硬件组成,如环视用鱼眼相机,adas用周视相机。    

    2024年02月09日
    浏览(36)
  • 基于openCV实现的单目相机行人和减速带检测

    用户在运行 calibration.py 时,会遵循清晰的操作指南逐步完成整个标定过程。首先,程序会在用户的指示下自动或选择性地清空标定板图片文件夹,以便收集新的图像数据。接下来,用户可以通过capture阶段预设拍照数量,确保获取足够丰富的标定样本。这些样本将用于后续的

    2024年03月19日
    浏览(41)
  • 基于条纹投影的物体三维形貌测量理论与仿真实验-含Matlab代码

    基于光栅投影的光学三维面形测量具有非接触、精度高、速度快、低成本、全场测量和易于实现等特点,在逆向工程、工业检测、质量控制、虚拟现实、医学诊断、文物修复和物体识别等领域应用广泛。相移轮廓术(PSM)和傅里叶变换轮廓术(FTP)是两种传统方法。相移法计算简单

    2024年02月03日
    浏览(157)
  • 【图像处理】基于双目视觉的物体体积测量算法研究(Matlab代码实现)

    💥💥💞💞 欢迎来到本博客 ❤️❤️💥💥 🏆博主优势: 🌞🌞🌞 博客内容尽量做到思维缜密,逻辑清晰,为了方便读者。 ⛳️ 座右铭: 行百里者,半于九十。 📋📋📋 本文目录如下: 🎁🎁🎁 目录 💥1 概述 📚2 运行结果 🎉3 参考文献 🌈4 Matlab代码实现 本文运用

    2024年02月11日
    浏览(38)
  • 工业缺陷检测项目实战(一)——基于opencv的工件缺陷检测C++和python实现

    作为研究生,每一个项目都很重要,这里给大家分享一个好入门项目,代码纯自己写,网上都是python的,但是有些企业要求C++编写项目,所以希望大家能学到东西。 一. 问题陈述 工件的展示,这是一个视频,然后工件一个个经过,要检测出哪个工件有缺陷,并且分类缺陷的种

    2024年02月04日
    浏览(59)
  • 基于YOLOv8和RealsenseD455相机实现物体距离检测

    目录 前言 一、Yolov8环境搭建 二、配置RealSense-ros功能包 1.安装ROS-humble 2.安装Intel RealSense SDK 2.0 ​编辑 3.克隆ROS功能包 三、物体距离检测代码实现 1.算法流程: 2.代码示例: 3.效果展示: 要基于YOLOv8和RealsenseD455相机实现物体距离检测,可以按照以下步骤进行操作: 准备环境

    2024年01月17日
    浏览(42)
  • 传感器融合 | 适用于自动驾驶场景的激光雷达传感器融合项目_将激光雷达的高分辨率成像+测量物体速度的能力相结合

    项目应用场景 面向自动驾驶场景的激光雷达传感器融合,将激光雷达的高分辨率成像+测量物体速度的能力相结合,项目是一个从多个传感器获取数据并将其组合起来的过程,可以更加好地进行环境感知。项目支持 ubuntu、mac 和 windows 平台。 项目效果 项目细节 == 具体参见项目

    2024年04月24日
    浏览(51)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包