手把手教你实现—基于OpenCV的车流量统计和车速检测代码

这篇具有很好参考价值的文章主要介绍了手把手教你实现—基于OpenCV的车流量统计和车速检测代码。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

         本章将实现了一个简单的车辆速度估计和车流量统计的GUI应用,它使用了Haar级联检测器和相关跟踪器来检测和跟踪视频中的车辆,并通过图像处理和数学计算来估计车辆的速度。

        1.首先,该代码需要cv2:用于图像处理和计算机视觉任务;dlib:用于对象跟踪和检测;time:用于计算帧率和时间间隔;threading:用于处理多线程操作;math:用于数学计算等。

        2.然后,定义了全局变量video_path和highest_speed,用于存储选择的视频文件路径和最高时速度。

        3.接下来,通过carCascade = cv2.CascadeClassifier('myhaar.xml')导入车辆检测器模型。然后定义了全局变量video和一些常量,如视频的宽度和高度。

carCascade = cv2.CascadeClassifier('myhaar.xml')
video = None
WIDTH = 1280
HEIGHT = 720

        3.实现estimateSpeed(location1, location2, fps)函数用于估计车辆速度,根据两个位置点的像素距离、像素每米比例和帧率来计算车辆的速度。

def estimateSpeed(location1, location2, fps):
    d_pixels = math.sqrt(math.pow(location2[0] - location1[0], 2) + math.pow(location2[1] - location1[1], 2))
    ppm = 8.8
    d_meters = d_pixels / ppm
    if fps == 0.0:
        fps = 18
    speed = d_meters * fps * 3.6
    return speed

        代码中:location1和location2是表示车辆位置的参数。它们是包含两个元素的元组或列表,分别表示车辆在图像中的坐标(x,y)。fps是帧率(Frames Per Second),表示视频播放的帧速率。d_pixels是计算两个位置之间像素距离的变量。通过使用两个位置的x和y坐标差值计算欧氏距离。ppm是每像素米数(Pixels Per Meter)的值。它表示图像中的像素距离与实际距离之间的比例关系。在这里,假设每个像素代表8.8厘米。d_meters是将像素距离转换为米的值。通过将像素距离除以ppm得到。如果帧率fps为0.0(未提供或无效值),将其设置为默认值18。speed是估计的速度,以千米/小时为单位。通过将距离(以米为单位)乘以帧率(以秒为单位)再乘以3.6(将小时转换为秒)计算得到。返回估计的速度。
        综上所述,该函数根据两个位置之间的像素距离、帧率和像素到米的比例关系,估计车辆的速度(以千米/小时为单位)。 

        4.实现track_multiple_objects()函数是实现多目标跟踪的核心部分。它使用Haar级联检测器来检测图像中的车辆,并使用dlib的相关跟踪器来跟踪每个车辆。函数使用一个无限循环,从视频中读取帧,然后进行车辆检测和跟踪。在每一帧中,函数更新已跟踪车辆的位置和质量,并计算车辆的速度。还更新了最高时速度和实时车流量的标签,并显示跟踪结果的图像。

def track_multiple_objects():
    rectangleColor = (0, 255, 0)
    frameCounter = 0
    currentCarID = 0
    fps = 0

    carTracker = {}
    carLocation1 = {}
    carLocation2 = {}
    speed = [None] * 1000

    def update_highest_speed(speed):
        global highest_speed
        highest_speed = max(highest_speed, speed)
        speed_label.config(text="最高时速度:{} km/hr".format(highest_speed))

    def update_video_frame(image):
        image = Image.fromarray(image)
        image = image.resize((640, 480))
        photo = ImageTk.PhotoImage(image)
        video_label.config(image=photo)
        video_label.image = photo

        # 其他代码...

    total_cars = 0  # 车辆总数
    prev_total_cars = 0  # 上一帧的车辆总数

    while True:
        start_time = time.time()
        rc, image = video.read()
        if not rc:
            break

        image = cv2.resize(image, (WIDTH, HEIGHT))
        resultImage = image.copy()

        frameCounter = frameCounter + 1

        carIDtoDelete = []

        # 更新已跟踪车辆的位置和质量
        for carID in carTracker.keys():
            trackingQuality = carTracker[carID].update(image)

            if trackingQuality < 7:
                carIDtoDelete.append(carID)

        for carID in carIDtoDelete:
            carTracker.pop(carID, None)
            carLocation1.pop(carID, None)
            carLocation2.pop(carID, None)

        if not (frameCounter % 10):
            gray = cv2.cvtColor(image, cv2.COLOR_BGR2GRAY)
            cars = carCascade.detectMultiScale(gray, 1.1, 13, 18, (24, 24))

            for (_x, _y, _w, _h) in cars:
                x = int(_x)
                y = int(_y)
                w = int(_w)
                h = int(_h)

                x_bar = x + 0.5 * w
                y_bar = y + 0.5 * h

                matchCarID = None

                for carID in carTracker.keys():
                    trackedPosition = carTracker[carID].get_position()

                    t_x = int(trackedPosition.left())
                    t_y = int(trackedPosition.top())
                    t_w = int(trackedPosition.width())
                    t_h = int(trackedPosition.height())

                    t_x_bar = t_x + 0.5 * t_w
                    t_y_bar = t_y + 0.5 * t_h

                    if (
                            (t_x <= x_bar <= (t_x + t_w))
                            and (t_y <= y_bar <= (t_y + t_h))
                            and (x <= t_x_bar <= (x + w))
                            and (y <= t_y_bar <= (y + h))
                    ):
                        matchCarID = carID

                if matchCarID is None:
                    tracker = dlib.correlation_tracker()
                    tracker.start_track(image, dlib.rectangle(x, y, x + w, y + h))

                    carTracker[currentCarID] = tracker
                    carLocation1[currentCarID] = [x, y, w, h]

                    currentCarID = currentCarID + 1

        for carID in carTracker.keys():
            trackedPosition = carTracker[carID].get_position()

            t_x = int(trackedPosition.left())
            t_y = int(trackedPosition.top())
            t_w = int(trackedPosition.width())
            t_h = int(trackedPosition.height())

            cv2.rectangle(resultImage, (t_x, t_y), (t_x + t_w, t_y + t_h), rectangleColor, 4)

            carLocation2[carID] = [t_x, t_y, t_w, t_h]

        end_time = time.time()

        if not (end_time == start_time):
            fps = 1.0 / (end_time - start_time)

        for i in carLocation1.keys():
            if frameCounter % 1 == 0:
                [x1, y1, w1, h1] = carLocation1[i]
                [x2, y2, w2, h2] = carLocation2[i]

                carLocation1[i] = [x2, y2, w2, h2]

                if [x1, y1, w1, h1] != [x2, y2, w2, h2]:
                    if speed[i] is None or speed[i] == 0:
                        speed[i] = estimateSpeed([x1, y1, w1, h1], [x2, y2, w2, h2], fps)

                    if speed[i] != 0 and speed[i] < 150:
                        update_highest_speed(speed[i])

                    cv2.putText(resultImage,str(int(speed[i])) + " km/hr", (int(x1 + w1 / 2), int(y1 - 10)),cv2.FONT_HERSHEY_SIMPLEX, 0.75,(0, 255, 0),2,)

        # 更新车流量
        prev_total_cars = total_cars
        total_cars = len(carTracker)

        # 更新实时车流量标签
        traffic_label.config(text="实时车流量:{}".format(total_cars))

        update_video_frame(resultImage)

    video.release()

        该代码中首先,定义了一些变量和数据结构用于跟踪车辆。rectangleColor是绘制车辆边界框的颜色,frameCounter用于计算帧数,currentCarID表示当前车辆的ID,fps表示帧率。carTracker是一个字典,用于存储每辆车的追踪器对象。carLocation1和carLocation2分别是字典,用于存储每辆车的当前和上一帧的位置信息。speed是一个列表,用于存储每辆车的速度。update_highest_speed()是一个内部函数,用于更新最高速度的显示。update_video_frame()是一个内部函数,用于更新视频帧的显示。total_cars和prev_total_cars是用于计算车流量的变量。进入主循环,首先读取视频的一帧图像。如果无法读取到图像,就退出循环。对读取到的图像进行预处理,包括调整图像大小和创建一个副本。增加帧计数器的值。创建一个空列表carIDtoDelete,用于存储需要删除的车辆的ID。遍历已跟踪的车辆,更新其位置信息和质量。如果某辆车的跟踪质量低于阈值(7),则将其ID添加到carIDtoDelete列表中。遍历carIDtoDelete列表,从carTracker、carLocation1和carLocation2中删除对应的车辆。每隔10帧,检测图像中的车辆。使用级联分类器(carCascade)对灰度图像进行目标检测,并返回检测到的车辆的边界框。遍历检测到的车辆边界框,与已跟踪的车辆进行匹配。如果找到匹配的车辆,更新该车辆的追踪器对象,位置信息和ID。如果没有找到匹配的车辆,创建一个新的追踪器对象,将其添加到carTracker中,并更新位置信息和ID。遍历carTracker中的每辆车,获取其位置信息,并在结果图像上绘制车辆边界框。根据每辆车的位置信息和帧率,估计车辆的速度,并将其存储在speed列表中。如果速度不为0且小于150,更新最高速度。在结果图像上显示每辆车的速

        5.实现open_file()函数用于打开文件对话框并选择视频文件。选择视频文件后,将启动一个新线程来处理视频。

def open_file():
    global video_path, video
    file_types = [("视频文件", "*.mp4;*.avi;*.mkv")]  # 允许上传的视频文件类型
    video_path = filedialog.askopenfilename(title="选择视频文件", filetypes=file_types)
    if video_path:
        video = cv2.VideoCapture(video_path)
        t = threading.Thread(target=process_video)
        t.start()

       6. 实现process_video()函数在新线程中执行,它首先通过cv2.VideoCapture打开选择的视频文件,然后调用track_multiple_objects()函数对视频进行处理。

        7.实现update_highest_speed(speed)函数用于更新最高时速度的全局变量,并更新显示最高时速度的标签。

        8.实现update_video_frame(image)函数用于更新显示视频帧的标签,它将图像转换为Tkinter可用的格式并进行适当的调整。

        9.最后,代码创建了一个Tkinter窗口,并在窗口中添加了按钮、车流量标签、最高时速度标签和视频显示标签。通过window.mainloop()来启动GUI窗口的事件循环,使应用保持运行状态。实现的界面如下所示:

opencv 车辆检测,opencv,车流量检测和统计,车速估计,车速测试,车流检测和车速估计

点击选择视频视频按钮,我们可以选择任意格式的视频进行检测:

opencv 车辆检测,opencv,车流量检测和统计,车速估计,车速测试,车流检测和车速估计 选择视频后的输出界面如下:

opencv 车辆检测,opencv,车流量检测和统计,车速估计,车速测试,车流检测和车速估计

车流量检测和速度估计

 整个代码下载链接:

https://download.csdn.net/download/weixin_40651515/87882938

运行环境依赖包:

opencv-python==4.1.0.25
numpy==1.17.2
dlib==19.8.1
future==0.17.1
Pillow==8.4.0文章来源地址https://www.toymoban.com/news/detail-760100.html

到了这里,关于手把手教你实现—基于OpenCV的车流量统计和车速检测代码的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • 手把手教你基于【SpringBoot+MyBatis】实现员工管理系统‍【附完整源码】

    Hello,你好呀,我是 灰小猿 ,一个超会写 BUG 的程序猿🙊! 近期在学习springboot框架相关的内容,相比于SSM, SpringBoot最大的特点就是集成了Spring和SpringMVC,让之前繁琐的配置工作变得更加简洁, 同时对于业务逻辑层的处理也更加的友好, 所以今天就使用 SpringBoot整合MyBati

    2023年04月08日
    浏览(34)
  • 手把手教你opencv做人脸识别(附源码+文档)

    python3.9 pycharm2020 人狠话不多,直接上代码,注释在代码里面,不说废话。 测试案例: 代码:(记得自己到下载地址下载对应的xml) 效果: 效果可以看出这个效果并不是很好。 代码:(还是用的前面得xml) 效果: 代码: 效果: 我们可以看到现在的识别效果非常好了。 代

    2024年02月02日
    浏览(39)
  • 手把手教你安装RabbitMQ(基于CentOS7系统)

    RabbitMQ是一个开源的AMQP实现,服务器端用Erlang语言编写,支持多种客户端。用于在分布式系统中存储转发消息,在易用性、扩展性、高可用性等方面表现不俗。 可靠性 灵活的路由 消息集群 高可用 插件机制 多种协议 多语言客户端 管理界面 跟踪机制 先安装一些必要的依赖

    2023年04月08日
    浏览(35)
  • 手把手教你实现SpringBoot的监控!

    任何一个服务如果没有监控,那就是两眼一抹黑,无法知道当前服务的运行情况,也就无法对可能出现的异常状况进行很好的处理,所以对任意一个服务来说,监控都是必不可少的。 就目前而言,大部分微服务应用都是基于 SpringBoot 来构建,所以了解 SpringBoot 的监控特性是非

    2024年02月11日
    浏览(39)
  • 手把手教你games101环境搭建(图文并茂)——Visual Studio安装,Eigen库,Opencv配置

      本文主要内容是games101在本机下的环境搭建,主要有VS的下载与安装,Eigen库的下载与配置,OpenCV的下载与配置,主要解决的bug是LNK2019 无法解析的外部符号 “public: __thiscall cv::Mat::Mat(void)” ,希望能给各位想做games101作业的带来帮助,减少环境配置上的困难,后续也会陆续

    2024年04月12日
    浏览(46)
  • 手把手教你开发stm32——系统时钟(基于hal库)

    概念: 时钟系统是由振荡器(信号源)、定时唤醒器、倍频器、分频器等组成的电路。常用的信号源有晶体振荡器和RC振荡器。 意义: 时钟是嵌入式系统的脉搏,处理器啮合在时钟的驱动下完成指令执行,状态转换等等动作,外设部件在时钟的驱动下完成各种工作,比如串

    2024年02月06日
    浏览(34)
  • 手把手教你开发stm32——ADC(基于hal库)

    ADC的概念: Analog-to-Digital Converter的缩写。指模/数转换器或者模拟/数字转换器。是指将连续变化的模拟信号转换为离散的数字信号的期间。 ADC的作用: 采集传感器数据,测量输入电压,检查电池电量剩余,监测温湿度等。 典型的模拟数字转换器将模拟信号转换为表示一定比

    2024年02月08日
    浏览(106)
  • 手把手教你开发stm32——看门狗(基于hal库)

    看门狗定时器(WDT,Watch Dog Timer)是单片机的组成部分,它实际上是一个计数器,一般给看门狗一个数值,程序开始运行后看门狗开始倒计时。如果程序运行正常,过一段时间CPU应发出指令让看门狗复位,重新开始计数,也就是所谓的“喂狗”。如果看门狗减到0就认为程序没

    2024年02月17日
    浏览(54)
  • 记录--手把手教你,用electron实现截图软件

    因为我们日常开发项目的时候,需要和同事对接 api 和 文档 还有 UI图 ,所以有时候要同时打开多个窗口,并在多个窗口中切换,来选择自己要的信息,如果 api 和 文档 不多的情况还好,但是有时候就是要做大量的页面,为了提升效率我决定自己做一个截图工具,并把自己要

    2024年02月12日
    浏览(53)
  • 深入浅出:手把手教你实现单链表

    链表是一种 链状数据结构 。简单来说,要存储的数据在内存中分别独立存放,它们之间通过某种方式相互关联。 如果我们使用C语言来实现链表,需要声明一个 结构体 作为链表的结点,结点之间使用指针关联。 单向链表的每个结点内都有一个指针指向下一个结点,从而把所

    2024年02月10日
    浏览(37)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包