音频延时测试方法与实现

这篇具有很好参考价值的文章主要介绍了音频延时测试方法与实现。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

音频延时测试方法有以下几种
1、使用专业的测试设备,通过专业的音频测试仪器可以准确测量音频延时,如常见声学分析仪、信号发生器、声卡+Smaart(介绍测试延时方法链接:https://blog.csdn.net/weixin_48408892/article/details/127318158?spm=1001.2014.3001.5501)等等。
2、手动测量:可以通过在音频信号进入和离开设备时手动观察信号波形的变化,如从录音设备中录入一个短促的声音,同时再监听设备中观察声音的回放情况,以此来判断音频延时的大小。
3、使用软件测试:通过电脑或手机上的特殊软件来测试音频延时,如Voicemeeter Bannana。

无论用哪种方法都需要注意测试准确性,尽量减少外部干扰。同时,测试结果会受到设备类型,连接方法等因素影响,最好多次测试以获得更准确的数据。
还有通过自定义软件方式实现延时测试,比较2笔音频buf,记录时间戳,确认音频一致性后,计算时间差即延时。
#include <stdio.h>
#include <stdlib.h>
#include <errno.h>
#include <unistd.h>
#include <fcntl.h>
#include <string.h>
#include <sys/ioctl.h>
#include <sys/time.h>
#include <sys/types.h>
#include <sys/stat.h>
#include <linux/soundcard.h>

#define SAMPLE_RATE 44100 // 采样率 Hz
#define SAMPLE_SIZE 2 // 采样长度,2字节
#define CHANNELS 2 // 声道数

#define DEVICE_1 “/dev/dsp” // 音频设备路径 1
#define DEVICE_2 “/dev/dsp1” // 音频设备路径 2

// 计算两个时间戳之间的差值(微秒)
unsigned long diff_time(struct timeval *t1, struct timeval *t2)
{
return (t2->tv_sec - t1->tv_sec) * 1000000 + (t2->tv_usec - t1->tv_usec);
}

int main()
{
int fd1, fd2; // 文件描述符
int bufsize; // 缓冲区大小
char *buff1, *buff2; // 缓冲区指针
struct timeval t1, t2; // 时间戳
int i, j; // 循环变量
int chan=CHANNELS;
// 打开音频设备 1
fd1 = open(DEVICE_1 , O_RDONLY);
if (fd1 < 0) {
fprintf(stderr, “Failed to open %s: %s\n”, COREINPUTREC, strerror(errno));
exit(EXIT_FAILURE);
}
// 打开音频设备 2
fd2 = open(DEVICE_2, O_RDONLY);
if (fd2 < 0) {
fprintf(stderr, “Failed to open %s: %s\n”, COREOUTPUTREC, strerror(errno));
exit(EXIT_FAILURE);
}
// 设置音频设备参数
int format = AFMT_S16_LE;
if (ioctl(fd1, SNDCTL_DSP_SETFMT, &format) == -1) {
fprintf(stderr, “Failed to set format: %s\n”, strerror(errno));
exit(EXIT_FAILURE);
}
if (ioctl(fd1, SNDCTL_DSP_CHANNELS, &chan) == -1) {
fprintf(stderr, “Failed to set channels: %s\n”, strerror(errno));
exit(EXIT_FAILURE);
}
int speed = SAMPLE_RATE;
if (ioctl(fd1, SNDCTL_DSP_SPEED, &speed) == -1) {
fprintf(stderr, “Failed to set speed: %s\n”, strerror(errno));
exit(EXIT_FAILURE);
}
// 分配缓冲区
bufsize = chan * SAMPLE_SIZE * SAMPLE_RATE / 10; // 每次读取10毫秒的数据
buff1 = (char *)malloc(bufsize);
buff2 = (char *)malloc(bufsize);
// 循环读取数据,每次读取5次数据
for (i = 0; i < 5; i++) {
// 同时读取2个设备的数据
if (read(fd1, buff1, bufsize) == -1) {
fprintf(stderr, “Failed to read data: %s\n”, strerror(errno));
exit(EXIT_FAILURE);
}
if (read(fd2, buff2, bufsize) == -1) {
fprintf(stderr, “Failed to read data: %s\n”, strerror(errno));
exit(EXIT_FAILURE);
}
// 记录时间戳
gettimeofday(&t1, NULL);
// 循环查找延迟
for (j = 0; j < bufsize; j += SAMPLE_SIZE * CHANNELS) {
// 判断第一个缓冲区是否包含第二个缓冲区的数据
if (memcmp(buff1 + j, buff2, SAMPLE_SIZE * CHANNELS) == 0) {
// 计算延迟时间
gettimeofday(&t2, NULL);
printf(“延迟:%ld 微秒\n”, diff_time(&t1, &t2));
break;
}
}
}
// 释放缓冲区
free(buff1);
free(buff2);
// 关闭音频设备
close(fd1);
close(fd2);
return 0;
}
以上代码根据实际需要进行再调整(不适合超过10ms延时音频测量),如间隔10ms读取一次数据。。文章来源地址https://www.toymoban.com/news/detail-505803.html

到了这里,关于音频延时测试方法与实现的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • 「专题速递」回声消除算法、低功耗音频、座舱音频系统、智能音频技术、低延时音效算法、手机外放增强算法...

    随着多媒体和通信网络技术的持续升级,以及新型音视频应用场景的不断涌现,音频处理技术正朝着更加智能化和沉浸化的方向迅猛发展。人们对音频听觉体验的要求也逐渐提高,无论是在何种场景下,都期望获得更加清晰的声音,并感受到身临其境的沉浸感。 在数字时代,

    2024年02月08日
    浏览(52)
  • postman上传照片,视频,音频等上传文件操作测试方法

    Postman上传照片,视频,音频等上传文件操作测试方法

    2024年03月24日
    浏览(69)
  • Python实现视频转音频、音频转文本的最佳方法

    本教程将使用Python实现视频转音频和音频转文字的功能。我们将使用以下库来实现这些功能: moviepy:用于处理视频和音频文件。 SpeechRecognition:用于将音频转换为文字。 在开始之前,请确保你已经安装了这两个库;如果没有安装,请使用 pip install 语句进行安装。 首先,我

    2024年04月17日
    浏览(34)
  • 前端实现页面自动播放音频方法

    前提 需要页面自动播放一段报警声音,将audio标签的 autoplay 属性设置为true,发现自动播放失败,并出现如下报错: Uncaught (in promise) DOMException: play() failed because the user didn’t interact with the document first. 为什么要禁止自动播放音频与视频 网页加载完成后立即播放音频(或带有音

    2024年02月09日
    浏览(48)
  • 音频分离:分离人声和背景音乐的方法及代码实现

    音频分离是一项重要的音频处理任务,它可以将音频信号中的人声和背景音乐分开,使得我们能够对它们进行独立的处理和分析。本文将介绍一些常用的音频分离方法,并提供相应的代码实现。 基于混合模型的音频分离方法 基于混合模型的音频分离方法利用统计模型对混合

    2024年04月23日
    浏览(61)
  • 拷贝音频、视频、word等二进制文件的实现方法,不掉帧

    拷贝音频、视频、word等二进制文件的实现方法:  演示使用BufferedOutputStream 和 BufferedInputStream 使用  使用他们,可以完成二进制文件  思考:字节流可以操作二进制文件,可以操作文本文件吗?True

    2024年02月07日
    浏览(57)
  • FFmpeg 中 RTSP推流桌面和Android设备延时测试

    官网,GitHub,CSDN中选一个就好: ● 官网: Builds - CODEX FFMPEG @ gyan.dev 下载源码:选择一个就好 ● GitHub : Releases · BtbN/FFmpeg-Builds (github.com) ● CSDN 已上传 ffmpeg 和 rtsp 服务器: ‍FFmpeg RTSP 推流桌面 ● GitHub : Releases · aler9/mediamtx (github.com) ​ 解压后: ● ​双击 运行 即可:

    2023年04月19日
    浏览(47)
  • 基于神经网络的自监督学习方法音频分离器(Matlab代码实现)

           目录 💥1 概述 📚2 运行结果 🎉3 参考文献 👨‍💻4 Matlab代码 神经网络的输入是混合(男性+女性)音频的振幅谱。神经网络的输出目标是男性说话者理想的软掩模。损失函数是使输出和输入目标之间的均方误差最小化。在输出端,利用混合信号的输出幅度谱和相位

    2023年04月08日
    浏览(42)
  • Java延时的三种方法

    一、Robot,Thread和Timer 打印: 二、补充: 关于方法二的 this.cancel() ; 解释: 取消此计时器任务。如果任务已计划一次执行,但尚未运行,或尚未计划,则它将永远不会运行。如果任务已计划重复执行,则它将永远不会再次运行。(如果此调用发生时任务正在运行,则任务将运

    2024年02月16日
    浏览(45)
  • uniapp中延时执行任务的方法

    在 uniapp 中,可以使用 JavaScript 内置的 setTimeout 函数来延时执行任务。 具体用法如下: 上面的代码中,setTimeout 函数的第一个参数是一个匿名函数,表示要延时执行的代码。第二个参数是延时的时间,单位是毫秒。 使用 setTimeout 函数,就可以在 uniapp 中延时执行任务了。 注意

    2024年02月13日
    浏览(40)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包