音视频基础

这篇具有很好参考价值的文章主要介绍了音视频基础。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

本篇文章我们来讲一下音视频基础

音视频基础,音视频&QT,音视频

像素点:

将以下图片的美女眼睛放大 能够看到一个一个的小方块 这就是像素点

音视频基础,音视频&QT,音视频照片像素=宽像素点*高像素点

像素点 代码实例:

#include <opencv2/opencv.hpp>

int main() {
    // 创建一个200x100的黑色图像
    cv::Mat image(100, 200, CV_8UC3, cv::Scalar(0, 0, 0));

    // 将某个像素点设为红色
    image.at<cv::Vec3b>(50, 50) = cv::Vec3b(0, 0, 255); // (B, G, R)

    // 显示图像
    cv::imshow("Pixel Image", image);
    cv::waitKey(0);

    return 0;
}

 

 分辩率:

图像或者视频的分辨率是指图像的大小或者尺寸 我们通常用像素表示图像的尺寸

图像的分辨率越高 图像就越清晰

例子: 360p(640*360)  宽640 高360

音视频基础,音视频&amp;QT,音视频

位深

位深通常是8bit  8bit能表示256种颜色  RGB能表示(256*256*256)种颜色

帧率

常见的帧率有以下几种(了解):

  1. 24帧/秒:这是电影行业中使用最广泛的帧率,也被称为电影标准帧率。

  2. 30帧/秒:这是视频游戏、电视节目和大部分在线视频平台使用的标准帧率之一。

  3. 60帧/秒:这是较高的帧率,用于提供更流畅的动画和游戏体验。在电竞领域以及某些要求高画质的视频制作中常见。

  4. 120帧/秒或更高:这些超高帧率通常在专业游戏竞技场景、VR(虚拟现实)设备等领域使用,以提供更快速、真实感觉的动画和交互体验。

需要注意的是,不同设备和应用程序对于可支持的帧率有不同要求,而且显示器硬件本身也会有限制。因此,在选择使用何种帧率时需考虑到具体情况和设备能力

 帧率代码实例:

#include <opencv2/opencv.hpp>

int main() {
    // 打开视频文件
    cv::VideoCapture video("path_to_video_file");

    if (!video.isOpened()) {
        std::cout << "无法打开视频文件" << std::endl;
        return -1;
    }

    // 循环读取帧并计算帧率
    double fps;
    cv::Mat frame;

    while (true) {
        double start = cv::getTickCount(); // 记录起始时间

        if (!video.read(frame)) { // 读取帧
            break;
        }

        // 在图像上绘制帧率信息
        cv::putText(frame, "FPS: " + std::to_string(fps), cv::Point(10, 30), cv::FONT_HERSHEY_SIMPLEX, 1, cv::Scalar(0, 255, 0), 2);

        cv::imshow("Video", frame);

        if (cv::waitKey(1) == 'q') { // 按下 'q' 键退出循环
            break;
        }

        double end = cv::getTickCount(); // 记录结束时间

        double totalTime = (end - start) / cv::getTickFrequency(); // 计算经过的时间(秒)
        
        fps = 1.0 / totalTime; // 计算帧率(每秒显示的帧数)
    }

    video.release();
    cv::destroyAllWindows();

    return 0;
}

本段代码采用的是opencv库来实现 喜欢的朋友可以深入了解

码率:

单位时间内码率越高 分辨率就越高 就越清晰

 

步长(Stride):

Stride决定了每次滑动的距离,它可以控制输出尺寸的大小以及运算的速度。当Stride为1时,滑动窗口/卷积核按一个像素的间隔依次遍历输入数据;而当Stride大于1时,滑动窗口/卷积核每次跳过多个像素进行下一次计算

较小的Stride值可以产生更多的输出特征图,在某些情况下可能会提取更详细的特征信息。然而,较大的Stride值会减少输出特征图的尺寸并降低计算复杂性。

以下是一个示例说明Stride对输出尺寸影响:

假设输入图像尺寸为W x H(宽度 x 高度),滑动窗口或卷积核大小为K x K,那么使用Stride=S后,输出特征图尺寸为: ( (W - K) / S + 1 ) x ( (H - K) / S + 1 )

通过调整Stride参数可以控制输出特征图的空间分辨率和大小。同时需要注意,过大或过小的Stride值可能导致信息损失或计算资源的浪费,因此在选择Stride时需要权衡性能和特征提取的需求。

 

 总结: 以上描述了图像的一些常用基础  在我们学习音视频的过程中 还是要以基础打起  在追求质量的同时追求速度  搞清楚位深 步长等概念 搞清楚图像的基本元素

 好了 本篇文章就到这里结束了 在这里 小编想向大家推荐一个课程:

https://xxetb.xetslk.com/s/2PjJ3T文章来源地址https://www.toymoban.com/news/detail-830099.html

到了这里,关于音视频基础的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • Qt音视频开发38-ffmpeg视频暂停录制的设计

    基本上各种播放器提供的录制视频接口,都是只有开始录制和结束录制两个,当然一般用的最多的也是这两个接口,但是实际使用过程中,还有一种可能需要中途暂停录制,暂停以后再次继续录制,将中间部分视频不需要录制,跳过这部分不需要的视频,而且录制的视频文件

    2023年04月20日
    浏览(71)
  • 音视频学习—音视频理论基础(2)

      音频是一种模拟信号,它是由声波转化而来的电信号。声波是通过气体、液体或固体传播的机械波,代表了声音的震动。在录制过程中,声音被转换成电信号,然后被储存在数字格式中。   声音的三要素是频率、振幅和波形   频率是指声波的振动次数,通常使用赫

    2024年04月29日
    浏览(41)
  • qt 实现音视频的分贝检测系统

    目前的产品经常播放m3u8流,有的视频声音正常,有的视频声音就偏低,即使放到最大音量声音也是比较小,所以就产生了某种需求,能否自动感知视频声音的大小,如果发现声音比较小的情况,就自动放大比如系统音量增益等。 1、tinymix linux中主流的音频体系结构是ALSA(A

    2024年02月02日
    浏览(46)
  • 音视频基础概念(6)——视频基础

    网上冲浪时,我们会接触到网络流媒体和本地视频文件。常见的视频文件格式有MP4、MKV、AVI等。在流媒体网站上看见视频常用的协议有HTTP、RTSP、RTMP、HLS等。视频技术较为复杂,包括视频封装、视频编解码、视频播放和视频转码等内容。 当下市场常见的视频APP很多,其中10

    2024年02月04日
    浏览(108)
  • FFMpeg-3、基于QT实现音视频播放显示

    1、音视频播放的基础知识 内容来自雷神博客 1、在Windows平台下的视频播放技术主要有以下三种:GDI,Direct3D和OpenGL;音频播放技术主要是DirectSound。 SDL本身并不具有播放显示的功能,它只是封装了底层播放显示的代码 记录三种视频显示技术:GDI,Direct3D,OpenGL。其中Direct3D包

    2024年02月03日
    浏览(62)
  • Qt/C++音视频开发24-视频显示QOpenGLWidget方式(占用GPU)

    采用painter的方式绘制解码后的图片,方式简单易懂,巨大缺点就是占CPU,一个两个通道还好,基本上CPU很低,但是到了16个64个通道的时候,会发现CPU也是很吃紧(当然强劲的电脑配置另当别论),这就需要考虑用opengl来绘制了,采用opengl走的GPU,会占用很少的CPU(一般是部

    2024年02月11日
    浏览(50)
  • Qt音视频开发40-ffmpeg采集桌面并录制

    之前用ffmpeg打通了各种视频文件和视频流以及本地摄像头设备的采集,近期有个客户需求要求将整个桌面屏幕采集下来,并可以录制保存成MP4文件,以前也遇到过类似的需求,由于没有搞过,也没有精力去摸索和测试,所以也就一直耽搁着,近期刚好这个需求又来了,定下心

    2023年04月25日
    浏览(63)
  • Qt 多媒体音频模拟按钮发音(音视频启动)

    ## 项目演示 平台 :windows或者ubuntu  要求 :平台需要支持音频播放功能 文件格式 :.wav 可以使用剪映生成,音频部分,我这里是简短的音乐 # Qt 多媒体简介 Qt QSound是Qt框架中的一个类,用于播放音频文件。它可以在Qt应用程序中实现简单的音频播放功能,包括播放、暂停和停

    2024年02月03日
    浏览(51)
  • 音视频开发系列(10):基于qt的音频推流

    今天分享一下利用qt录制音频,然后再利用ffmpeg推流到nginx服务器,最后再利用vlc进行拉流的demo。 首先介绍一下如何利用qt来进行音频的录制,qt的音频录制主要利用qt的QAudioFormat先进行音频信息的配置。主要需要配置以下的信息: 然后使用QAudioDeviceInfo来获取是否支持改设置

    2024年02月02日
    浏览(55)
  • qt+ffmpeg 实现音视频播放(二)之音频播放

    通过  avformat_open_input () 打开媒体文件并分配和初始化  AVFormatContext   结构体。 函数原型如下: int avformat_open_input(AVFormatContext **ps, const char *url, AVInputFormat *fmt, AVDictionary **options); 参数说明: - `ps`:指向 `AVFormatContext` 结构体指针的指针,用于存储打开的媒体文件的信息。

    2024年04月22日
    浏览(55)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包