在上节课,我们使用FFmpeg实现了一个最简单的rtmp播放器,它看起来工作正常。这节课,我们尝试让它来播放本地的mp4文件试试。
1.压缩备份上节课工程文件夹为demo3.rar,并修改工程文件夹demo3为demo4,重要的事情再说一遍:及时备份源文件并在原基础上继续迭代开发是一种好习惯。
将原rtmp地址修改为本地mp4地址:
const char *inFileName = "d:\\mp4\\dtz.mp4";
调试运行,会发现视频显示一卡一卡,音频也断断续续的。这是什么原因呢?
2.经过很长时间的研究学习,我才发现:原来是流的时间基与当前ffmpeg的时间基不一致造成的。根据以上信息,将延时函数修改如下:
//延时以使当前视频记录的播放时间与实际时间同步
if (normalPkt.stream_index == videoIndex)
{
AVRational videoTimeBase = inFormatCtx->streams[videoIndex]->time_base;
AVRational currentTimeBase = { 1, AV_TIME_BASE };
//计算视频播放时间
int64_t videoTime = av_rescale_q(normalPkt.dts, videoTimeBase, currentTimeBase);
//计算实际视频的播放时间
int64_t currentTime = av_gettime() - startTime;
if (videoTime > currentTime) {
av_usleep((unsigned int)(videoTime - currentTime));
}
}
//延时以使当前音频记录的播放时间与实际时间同步
if (normalPkt.stream_index == audioIndex)
{
AVRational audioTimeBase = inFormatCtx->streams[audioIndex]->time_base;
AVRational currentTimeBase = { 1, AV_TIME_BASE };
//计算视频播放时间
int64_t audioTime = av_rescale_q(normalPkt.dts, audioTimeBase, currentTimeBase);
//计算实际视频的播放时间
int64_t currentTime = av_gettime() - startTime;
if (audioTime > currentTime) {
av_usleep((unsigned int)(audioTime - currentTime));
}
}
3.再次调试运行,mp4视频部分看起来播放正常了。换个mp4试试,好象也正常,但世事哪有那么简单,声音听起来总是有些杂音,这又是怎么回事呢?又经过很长时间的研究学习,我发现:原来是音频流的采样率与扬声器的采样率不一致造成的。要保证音频流听起来正常,就需要保证打开的扬声器的采样率及解码转换后的采样率保证一致才可以。比如,如果mp4文件中音频的采样率为44100,则以下两处的采样率也要做相应修改:
//将音频帧转换到数组
int fmlp::convertAudioFrameToAudioBuff(AVFrame*frame, char**pBuf, int&len){
int outSampleNum = 0;
SwrContext* audioSwrCtx = NULL;
audioSwrCtx = swr_alloc_set_opts(NULL, AV_CH_LAYOUT_STEREO, AVSampleFormat::AV_SAMPLE_FMT_S16, 44100, AV_CH_LAYOUT_STEREO, (AVSampleFormat)frame->format, frame->sample_rate, NULL, NULL);
swr_init(audioSwrCtx);
outSampleNum = swr_convert(audioSwrCtx, (uint8_t**)pBuf, len / frame->channels / av_get_bytes_per_sample(AV_SAMPLE_FMT_S16), (const uint8_t**)frame->data, frame->nb_samples);
swr_free(&audioSwrCtx);
return outSampleNum;
}
//打开扬声器
void fmlp::openSpeaker(){
outWaveform.wFormatTag = WAVE_FORMAT_PCM;
outWaveform.nSamplesPerSec = 44100;
outWaveform.wBitsPerSample = 16;
outWaveform.nChannels = 2;
//waveform.nBlockAlign = (waveform.wBitsPerSample * waveform.nChannels) / 8;
outWaveform.nBlockAlign = (outWaveform.wBitsPerSample*outWaveform.nChannels) >> 3;
outWaveform.nAvgBytesPerSec = outWaveform.nBlockAlign * outWaveform.nSamplesPerSec;
outWaveform.cbSize = 0;
waveOutOpen(&hWaveOut, WAVE_MAPPER, &outWaveform, (DWORD)(speakerCallback), 0L, CALLBACK_FUNCTION);
waveOutSetVolume(hWaveOut, 4 * 0xffffffff);
waveHdrArr = new WAVEHDR[audioDataArrNum];
for (int i = 0; i < audioDataArrNum; i++)
{
waveHdrArr[i].lpData = new char[finalAudioDataSize];
waveHdrArr[i].dwBufferLength = finalAudioDataSize;
waveHdrArr[i].dwBytesRecorded = 0;
waveHdrArr[i].dwUser = 0;
waveHdrArr[i].dwFlags = 0;
waveHdrArr[i].dwLoops = 0;
waveHdrArr[i].lpNext = NULL;
waveHdrArr[i].reserved = 0;
waveOutPrepareHeader(hWaveOut, &waveHdrArr[i], sizeof(WAVEHDR));
}
}
4.再次调试运行,视频和音频都能正常播放了。
文章来源:https://www.toymoban.com/news/detail-775975.html
写这篇教程用了不到一个小时,但问题的排查却历尽艰辛,各位同行都有类似的经历吧。文章来源地址https://www.toymoban.com/news/detail-775975.html
到了这里,关于第4课 FFmpeg读取本地mp4文件并显示的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!