基于OpenCv+Django的网络实时视频流传输(前后端分离)

这篇具有很好参考价值的文章主要介绍了基于OpenCv+Django的网络实时视频流传输(前后端分离)。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

秋风阁——北溪入江流:https://focus-wind.com/
秋风阁——基于OpenCv+Django的网络实时视频流传输(前后端分离)

使用OpenCv捕获摄像机画面后,我们有时候需要将画面显示在界面上。本博客基于Django的前后端分离模式,将视频流从后端读取,传送给前端显示。

Django流传输实例:StreamingHttpResponse

在使用Django进行视频流传输时,无法使用HttpResponse,JsonResponse等对象对内容直接传输,需要使用StreamingHttpResponse流式传输一个响应给浏览器。StreamingHttpResponse不是HttpResponse的子类,因此他们之间的API略有不同。StreamingHttpResponse与HttpResponse之间有以下显著区别:

  • 应该给StreamingHttpResponse一个迭代器,产生字节字符串作为内容。
  • 不应该直接访问StreamingHttpResponse的内容,除非通过迭代器响应对象本身。
  • StreamingHttpResponse没有content属性。相反,他有一个streaming_content属性。
  • 无法使用类文件对象的tell()何write()方法。这样会引起一个异常。

Django传输视频流

因为使用Django的StreamingHttpResponse类进行流传输,所以我们首先需要生成一个视频流的迭代器,在迭代器中,需要将从opencv中获取到的numpy.ndarray三维数组转换为字节类型的,然后传输到前端。

传输视频流:

  1. 读取图片
  2. 图片压缩(针对分辨率较高的界面)
  3. 对图片进行解码
  4. 转换为byte类型
  5. 传输视频流
import cv2
from django.http import StreamingHttpResponse


def gen_display(camera):
    """
    视频流生成器功能。
    """
    while True:
        # 读取图片
        ret, frame = camera.read()
        if ret:
            # 将图片进行解码
            ret, frame = cv2.imencode('.jpeg', frame)
            if ret:
                # 转换为byte类型的,存储在迭代器中
                yield (b'--frame\r\n'
                       b'Content-Type: image/jpeg\r\n\r\n' + frame.tobytes() + b'\r\n')


def video(request):
    """
    视频流路由。将其放入img标记的src属性中。
    例如:<img src='https://ip:port/uri' >
    """
    # 视频流相机对象
    camera = cv2.VideoCapture(0)
    # 使用流传输传输视频流
    return StreamingHttpResponse(gen_display(camera), content_type='multipart/x-mixed-replace; boundary=frame')

在使用海康威视等分辨率较高的相机时,直接解码,延迟过高,所以需要先对图片进行压缩,然后解码。

经测试,海康相机使用0.25的压缩倍率显示压缩效率较好,当大于0.25时,延迟较高,小于0.25时,界面显示较差

迭代器优化:

def gen_display(camera):
    """
    视频流生成器功能。
    """
    while True:
        # 读取图片
        ret, frame = camera.read()
        if ret:
            frame = cv2.resize(frame, (0, 0), fx=0.25, fy=0.25)
            # 将图片进行解码
            ret, frame = cv2.imencode('.jpeg', frame)
            if ret:
                # 转换为byte类型的,存储在迭代器中
                yield (b'--frame\r\n'
                       b'Content-Type: image/jpeg\r\n\r\n' + frame.tobytes() + b'\r\n')

前端显示视频流

在Django中配置路由后,在浏览器端直接访问视频url即可看到视频显示画面。
在前端HTML5中,将视频路由写入img标签的src属性中,即可访问视频流界面。例如:<img src=‘https://ip:port/uri’
前端显示视频流:

<!DOCTYPE html>
<html lang="en">
<head>
    <meta charset="UTF-8">
    <meta http-equiv="X-UA-Compatible" content="IE=edge">
    <meta name="viewport" content="width=device-width, initial-scale=1.0">
    <title>基于OpenCv+Django的网络实时视频流传输(前后端分离)</title>
</head>
<body>
    <!-- 显示视频流 -->
    <img src="http://127.0.0.1:8000/api/cv/display">
</body>
</html>

显示结果:
基于OpenCv+Django的网络实时视频流传输(前后端分离)

在前端显示视频流中,可以通过调整img标签的属性来调整界面显示位置,显示大小。所以在进行视频流前后端传输中,在保证视频显示清晰度的情况下,建议使用前端来调整界面大小。

调整界面前端显示视频样式:

<!DOCTYPE html>
<html lang="en">
<head>
    <meta charset="UTF-8">
    <meta http-equiv="X-UA-Compatible" content="IE=edge">
    <meta name="viewport" content="width=device-width, initial-scale=1.0">
    <title>基于OpenCv+Django的网络实时视频流传输(前后端分离)</title>
    <style>
        #video {
            width: 500px;
            height: 500px;
        }
    </style>
</head>
<body>
    <!-- 显示视频流 -->
    <div align="center"><img src="http://127.0.0.1:8000/api/cv/display" id="video"></div>
</body>
</html>

显示结果:

基于OpenCv+Django的网络实时视频流传输(前后端分离)

视频流传输优化

在项目中,我们可能经常需要对多个相机进行处理,而不是对一个相机进行操作,所以我们可以使用相机工厂来获取相机。在实例化相机后,需要开启一个线程,及时更新缓存队列,确保OpenCv不会因为缓存过多而造成缓存区堵塞,界面延迟。

  • 使用线程实时读取OpenCv的内容到队列中
  • 使用相机工厂来获取相机

在示例代码中,camera_model为自定义model,其中代码需要用到的数据有数据表记录的唯一标识id,相机的访问api:camera_api

相机类:

import queue
import threading

import cv2

from apps.device.models import Camera


class CameraException(Exception):
    message = None

    # 初始化异常
    def __init__(self, message: str):
        # 初始化异常,定位异常信息描述
        self.message = message

    def __str__(self):
        return self.message


class BaseCamera:
    # 相机操作对象
    cam = None
    # 保存每一帧从rtsp流中读取到的画面,使用opencv读取,为BGR图片
    queue_image = queue.Queue(maxsize=10)
    # 后台取帧线程
    thread = None
    # 相机Model
    camera_model = None

    # 相机基类
    def __init__(self, camera_model: Camera):
        """
        使用rtsp流初始化相机参数
        rtsp格式:rtsp://[username]:[password]@[ip]:[port]/[codec]/[channel]/[subtype]/av_stream
        username: 用户名。例如admin。
        password: 密码。例如12345。
        ip: 为设备IP。例如 192.0.0.64。
        port: 端口号默认为554,若为默认可不填写。
        codec:有h264、MPEG-4、mpeg4这几种。
        channel: 通道号,起始为1。例如通道1,则为ch1。
        subtype: 码流类型,主码流为main,辅码流为sub。
        """
        self.cam = cv2.VideoCapture(camera_model.camera_api)
        if self.cam.isOpened():
            # 相机打开成功,启动线程读取数据
            self.thread = threading.Thread(target=self._thread, daemon=True)
            self.thread.start()
        else:
            # 打开失败,相机流错误
            raise CameraException("视频流接口访问失败")

    def _thread(self):
        """
        相机后台进程,持续读取相机
        opencv读取时会将信息存储到缓存区里,处理速度小于缓存区速度,会导致资源积累
        """
        # 线程一直读取视频流,将最新的视频流存在队列中
        while self.cam.isOpened():
            ret, img = self.cam.read()
            if not ret or img is None:
                # 读取相机失败
                pass
            else:
                # 读取内容成功,将数据存放在缓存区
                if self.queue_image.full():
                    # 队列满,队头出队
                    self.queue_image.get()
                    # 队尾添加数据
                    self.queue_image.put(img)
                else:
                    # 队尾添加数据
                    self.queue_image.put(img)

    # 直接读取图片
    def read(self):
        """
        直接读取从rtsp流中获取到的图片,不进行额外加工
        可能为空,需做判空处理
        """
        return self.queue_image.get()

    # 读取视频帧
    def get_frame(self):
        """
        获取加工后的图片,可以直接返回给前端显示
        """
        img = self.queue_image.get()
        if img is None:
            return None
        else:
            # 压缩图片,否则图片过大,编码效率慢,视频延迟过高
            img = cv2.resize(img, (0, 0), fx=0.25, fy=0.25)
            # 对图片进行编码
            ret, jpeg = cv2.imencode('.jpeg', img)
            return jpeg.tobytes()


class CameraFactory:
    """
    相机工厂
    """
    # 存储实例化的所有相机
    cameras = {}

    @classmethod
    def get_camera(cls, camera_id: int):
        # 通过相机id获取相机
        camera = cls.cameras.get(camera_id)
        if camera is None:
            # 查看是否存在相机,存在访问
            try:
                camera_model = Camera.objects.get(id=camera_id)
                base_camera = BaseCamera(camera_model=camera_model)
                if base_camera is not None:
                    cls.cameras.setdefault(camera_id, base_camera)
                    return cls.cameras.get(camera_id)
                else:
                    return None
            except Camera.DoesNotExist:
                # 相机不存在
                return None
            except CameraException:
                # 相机实例失败
                return None
        else:
            # 存在相机,直接返回
            return camera

Django views.py:

from django.http import StreamingHttpResponse

from apps.device.Camera import CameraFactory, BaseCamera


def gen_display(camera: BaseCamera):
    """
    视频流生成器功能。
    """
    while True:
        # 读取图片
        frame = camera.get_frame()
        if frame is not None:
            yield (b'--frame\r\n'
                   b'Content-Type: image/jpeg\r\n\r\n' + frame + b'\r\n')


def video(request):
    """
    视频流路由。将其放入img标记的src属性中。
    例如:<img src='https://ip:port/uri' >
    """
    # 视频流相机对象
    camera_id = request.GET.get('camera_id')
    camera: BaseCamera = CameraFactory.get_camera(camera_id)
    # 使用流传输传输视频流
    return StreamingHttpResponse(gen_display(camera), content_type='multipart/x-mixed-replace; boundary=frame')

本方案存在的问题及解决方向

鉴于本文对大家的帮助,特针对评论区一些热点问题和依照本文实现的方法存在的问题提出描述,供大家探讨(本方案是之前在做与视觉有关领域的项目时写的,目前博主已不做这个方向,也没有对相关领域进行深入研究,所以博主仅对解决方向提供一些个人的见解。存在的问题和后续的解决方案可自行探索)

公网无法访问

本方案是通过rtsp协议读取相机内容,若将服务放在公网上,公网无法访问本地的相机,自然无法读取数据。针对公网无法访问,主要的解决思路是使公网可以获取到相关的数据。

  • 考虑向运营商获取公网IP,将视频读取任务单独分离出来(减少运维成本),通过本地公网IP读取视频内容
    • 若无法获取IPv4,可退而求其次考虑IPv6,在使用IPv6时,请测试其对现有设备的兼容性
  • 采用推流的方式,将本地抓取到的流视频推送到公网,然后公网再拉流读取视频内容(推荐)

画面混合问题

在本方案中,为更好的使用多相机展示画面,采用了单例模式并将所有的相机存储在字典里面方便用户直接根据相机的标识获取相机。若出现画面混合问题,检查代码,是否在存储相机的字典相关的结构中,将数据混合在一块,导致混合输出。检查代码,请仔细确定被一个相机的数据流流向,确保不同相机的数据流不发生混合。

没有apps.device.models.Camera类

Camera类在这里主要对相机进行管理,主要是存储了相机的rtsp协议流,关于rtsp协议的读取和相关内容参考:基于OpenCv的视频流处理方法,具体代码,不予提供(懒的找了)

本方案的改进策略

在做本方案相关需求时,考虑到仅是通过前后端到视频传输到实现,未考虑到效率因素。
假设在视频传输中硬件条件如下:

  • 视频图像文件在传输时一般有3个通道
  • 像素点在存储时以8bit(1B)的大小进行存储
  • 相机到分辨率为1920x1080
  • 相机每秒采样30帧

按照以上的数据计算的话,那么每一秒需要传输的数据有3 x 1 x 1920 x 1080 x 30,在不考虑压缩的优化的情况下,每一秒所传的数据是海量的。在本方案的探索过程中,未进行任何压缩的情况下,在本机上前端读取都存在着3~4秒的延迟。更何况是将服务部署到同一网段甚至公网上。 所以本方案只是提供一个前后端分离到视频显示传输到探索。
关于本方案存在的问题,目前可想到的改进方案有:

  • 对视频进行下采样(同比咧缩小),在普通的监控场景下不需要有较高的分辨率需求,可以考虑将分辨率缩小
  • 采用相关的视频压缩算法对视频进行压缩,如h264、h265、mpeg-4、hevc等方法
  • 将视频转换为常见的视频格式进行硬件解码播放
  • 考虑到在视频监控等特殊场景,一般的视频画面之间变化不大,是否可以采用差帧法的方式
    • 当未检测到界面变化的情况下,不进行帧传输
    • 在界面变化较小的情况下,只传输部分变化帧

由于博主本人并未深入了解相关领域,以上的各个解决方案只是个人的一些思路和想法,并未得到有效验证,欢迎大家就相关方向进行讨论分享文章来源地址https://www.toymoban.com/news/detail-474996.html

到了这里,关于基于OpenCv+Django的网络实时视频流传输(前后端分离)的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • 海康实时监控预览视频流接入web

            我们采取的方案是后端获取视频流返回给前端,然后前端播放 根据官方文档传输对应的参数  官方接口限制:为保证数据的安全性,取流URL设有有效时间,有效时间为5分钟。 注意不同协议的限制不同,rtsp没得限制但前端播放麻烦,web端展示的话ws比较好 海康开放平

    2024年04月17日
    浏览(48)
  • 设计一个像ESPN一样的实时视频流系统

    功能需求 •直播事件与流之间的最大延迟不超过1分钟•系统应能够适应大量用户(异构交付)•系统应能将视频转换为不同的分辨率和编解码器•系统应具备容错性 视频转换和接收 由于我们正在实时直播整个事件,因此我们不能等待整个视频结束后再开始将其转换为不同的

    2024年02月07日
    浏览(36)
  • 安防监控项目---mjpeg-streamer视频图像显示(实时视频流实现)

    书接上期,我们已经实现了许多功能了,但是对于视频流的实时上传还未实现,本期主要分享的就是如何具体实现网页实时显示摄像头采集到的视频,从而实现安防中监控的功能,这个功能完成后呢,就只剩下一个功能需求了,那就是GPRS模块,能够实现危险报警的功能,也能

    2024年02月06日
    浏览(48)
  • FFmpeg+SDL实时解码和渲染H264视频流

    之前实现了Android手机摄像头数据的TCP实时传输,今天接着聊聊,如何在PC端把接收到的H264视频流实时解码并渲染出来。这次使用的语言是C++,框架有FFmpeg和SDL2。 解码部分使用FFmpeg,首先,需要初始化H264解码器: 然后,使用创建TCP连接到我们的Android端,读取数据包: 再把每

    2024年02月13日
    浏览(47)
  • Qt推流程序自动生成网页远程查看实时视频流(视频文件/视频流/摄像头/桌面转成流媒体rtmp+hls+webrtc)

    推流程序将视频流推送到流媒体服务器后,此时就等待验证拉流播放,一般可以选择ffplay命令行播放或者vlc等播放器打开播放,也可以选择网页直接打开拉流地址播放,一般主流的浏览器都支持网页直接播放hls/m3u8/webrtc类型的视频流,而且推流的主要目的可能就是为了能够在

    2024年02月05日
    浏览(81)
  • [chatGPT] 如何通过JNI在Android上显示实时视频流

    相机拍摄的画面通过local socket 获取,所以C++的代码可以轻易的获取到每一帧视频数据,需要通过JNI 让 Android显示出来,方法有两种,一种是在Android内创建回调函数使用Bitmap 和ImageView 进行赋值显示,另一种也就是ChatGPT完成的,Android将surface 传递到JNI层内,C++来完成赋值和渲

    2023年04月26日
    浏览(85)
  • QT实现OpenCV播放rtsp视频流

    使用OpenCV(图像处理)、FastDeploy(飞桨部署)库; 监控相机传输数据用的是码流,高清网络摄像机产品编码器都会产生两个编码格式,称为 主码流 和 子码流 。这就叫双码流技术。 目的是用于解决监控录像的本地存储和网络传输的图像的质量问题。双码流能实现本地和远程

    2024年02月03日
    浏览(70)
  • Opencv保存ESP32-CAM视频流

    Opencv保存ESP32-CAM视频流 esp32cam是一个很便宜的视频模组,可以用作监控等功能。此时就需要保存esp32的视频流,方便查看等操作,python代码如下 前置条件:视频流正常,已安装opencv

    2024年02月08日
    浏览(68)
  • ZED相机使用记录(一):利用ZED SDK使用python完成局域网内的远程视频(视频流)传输

    ** 本文主要介绍ZED2相机以及具有的功能,ZED2相机(这里使用ZED2相机,主要是因为视频流传输功能目前只有ZED2、ZED mini等新版本相机才有的功能)** 本文所使用的环境: python:3.8 CUDA:10.2 需要安装的python库:pyzed(安装好ZED SDK后安装)、opencv(cv2)、sys 接收端(服务端):测试过的有

    2024年02月13日
    浏览(39)
  • VUE3 播放RTSP实时、回放(NVR录像机)视频流(使用WebRTC)

    1、下载webrtc-streamer,下载的最新window版本 Releases · mpromonet/webrtc-streamer · GitHub  2、解压下载包  3、webrtc-streamer.exe启动服务 (注意:这里可以通过当前文件夹下用cmd命令webrtc-streamer.exe -o这样占用cpu会很少,直接双击exe文件会占用cpu) cmd  webrtc-streamer.exe -o 启动如下图所示,

    2024年04月12日
    浏览(64)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包