Android音视频: 引入FFmpeg

这篇具有很好参考价值的文章主要介绍了Android音视频: 引入FFmpeg。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

本文你可以了解到

本文将介绍如何将上一篇文章编译出来的  FFmpeg so 库,引入到  Android 工程中,并验证  so 是否可以正常使用。

一、开启 Android 原生 C/C++ 支持

在过去,通常使用 makefile 的方式在项目中引入 C/C++ 代码支持,随着 Android Studio 的普及,makefile 的方式已经基本被 CMake 替代。

有了 Android 官方的支持,NDK 层代码的开发变得更加容易。以前一谈到 Android NDK ,许多人就会大惊失色,感觉是深不可测的东西,一方面是 makefile 的编写很难,一方面是 C/C++ 相比 Java 来说,比较晦涩。

但是不必担心,一是有了 CMake ,二是对于 C/C++ 的基本使用其实和 Java 差不多,本系列涉及到的,也都是对 C/C++ 的基础使用,毕竟,高级的我也不会不是吗?哈哈哈~~

1. 安装 CMake

首先,需要下载 CMake 相关工具,在 Android Studio 中依次点击 Tools->SDK Manager->SDK Tools,然后勾选

CMake : CMake 构建工具

LLDB : C/C++ 代码调试工具

NDK : NDK 环境

最后依次点击 OK->OK->Finish ,开始下载(文件比较大,可能会比较慢,请耐心等待)。

Android音视频: 引入FFmpeg,android,音视频,ffmpeg

下载CMake工具

2. 添加 C/C++ 支持

有两种方式:

一是,新建一个新的工程,并勾选  C/C++ 支持选项,系统将自动创建一个支持  C/C++ 编码的工程。
二是,在已有的项目上,手动添加所有的添加项来支持  C/C++ 编码,其实就是自己手动添加 「第一种方式」中  Android Studio 为我们自动创建的那些东西。

首先,通过新建一个新工程的方式,看看 IDE 为我们生成了那些东西。

1)新建 C/C++ 工程

依次点击 File -> New -> New Project,进入新建工程页面,拉到最后,选择 Native C++ 然后按照默认配置,一路 Next -> Next -> Finish 即可。

Android音视频: 引入FFmpeg,android,音视频,ffmpeg

新建C++工程

2)Android Studio 自动生成了什么

生成的工程目录如下:

Android音视频: 引入FFmpeg,android,音视频,ffmpeg

工程目录

重点关注上图标注的3个地方:

  • 第一,最上层的 MainActivity
  class MainActivity : AppCompatActivity() {
​
       override fun onCreate(savedInstanceState: Bundle?) {
          super.onCreate(savedInstanceState)
          setContentView(R.layout.activity_main)
​
          // Example of a call to a native method
          sample_text.text = stringFromJNI()
      }
​
      /**
       * A native method that is implemented by the 'native-lib' native library,
       * which is packaged with this application.
       */
      external fun stringFromJNI(): String
​
      companion object {
​
          // Used to load the 'native-lib' library on application startup.
          init {
              System.loadLibrary("native-lib")
          }
      }
  }

很简单,使用过 so 库的应该都看得懂,这里简单说一下。

代码的最下面,companion object 在 Kotlin 中表示静态代码块,类似 Java 中的 static { },其中的代码有且只会被执行一次。

接着在 init{} 方法中,加载了 C/C++ 代码编译成的 so 库: native-lib

往上一句代码,用 external 声明了一个外部引用的方法 stringFromJNI() ,这个方法和 C/C++ 层的代码是对应的。

最终在最上面的 onCreate 中,将从 C/C++ 层返回的 String 显示出来。

【免费分享】音视频学习资料包、大厂面试题、技术视频和学习路线图,资料包括(C/C++,Linux,FFmpeg webRTC rtmp hls rtsp ffplay srs 等等)有需要的可以点击788280672加群免费领取~

Android音视频: 引入FFmpeg,android,音视频,ffmpeg

  • 第二,创建了一个 cpp 文件包

其中有两个文件非常重要,分别是 native-lib.cpp 、 CMakeLists.txt

i. native-lib.cpp :是一个 C++ 接口文件,在 MainActivity 中声明的外部方法将在这里得到实现。

自动生成 native-lib.cpp 的内容如下:

  #include <jni.h>
  #include <string>
​
  extern "C" JNIEXPORT jstring JNICALL
  Java_com_chenlittleping_mynativeapp_MainActivity_stringFromJNI(
          JNIEnv *env,
          jobject /* this */) {
      std::string hello = "Hello from C++";
      return env->NewStringUTF(hello.c_str());
  }

可以看到,这个 cpp 文件中的方法命名非常的长,不过其实非常简单。

首先是头部固定写法 extern "C" JNIEXPORT jstring JNICALL

extern "C" 表示以 C语言 的方式来编译;

jstring 表示该方法返回类型是 Java 层的 String 类型,类似的还是有: void jint等;

然后是 Java 层对应方法的映射,即整个方法命名其实是 Java 层对应方法的绝对路径。

其中,最前面的 Java_ 是固定写法;

com_chenlittleping_mynativeapp_MainActivity_: 对应的是 com.chenlittleping.mynativeapp.MainActivity.,其实就是 . 换为 _

stringFromJNI 和 Java 层的方法一致。

最后是两个参数, JNIEnv *env 和 jobject,分别代表 JNI 的上下文环境和调用这个接口的 Java 的类的实例。

调用这个方法,将会在 C++ 层创建一个字符串,并以 Java#String 的类型返回。

ii. CMakeLists.txt : 也就是构建脚本。内容如下:

  # cmake 最低版本
  cmake_minimum_required(VERSION 3.4.1)
​
  # 配置so库编译信息
  add_library( 
          # 输出so库的名称
          native-lib
​
          # 设置生成库的方式,默认为SHARE动态库
          SHARED
​
          # 列出参与编译的所有源文件
          native-lib.cpp)
​
  # 查找代码中使用到的系统库
  find_library( # Sets the name of the path variable.
          log-lib
​
          # Specifies the name of the NDK library that
          # you want CMake to locate.
          log)
​
  # 指定编译目标库时,cmake要链接的库
  target_link_libraries(
          # 指定目标库,native-lib 是在上面 add_library 中配置的目标库
          native-lib
  
          # 列出所有需要链接的库
          ${log-lib})

这是最简单的编译配置,具体见上面的注释。

CMakeLists.txt 的目的就是配置可以编译出 native-lib so 库的构建信息。

说白了,就是告诉编译器:

  - 编译的目标是谁
  - 依赖的源文件在哪里找
  - 依赖的 `系统或第三方` 的 `动态或静态` 库在哪里找。
  • 第三,在 Gradle 文件中注册 CMake 脚本

在 第二步 中,已经把构建 so 库的信息配置好了,接下来要把这些信息注册到 Gradle 中,编译器才会去编译它。

app 的 build.gradle 内容如下:

  apply plugin: 'com.android.application'
​
  apply plugin: 'kotlin-android'
  
  apply plugin: 'kotlin-android-extensions'
​
  android {
      compileSdkVersion 28
      buildToolsVersion "29.0.1"
      defaultConfig {
          applicationId "com.chenlittleping.mynativeapp"
          minSdkVersion 19
          targetSdkVersion 28
          versionCode 1
          versionName "1.0"
          testInstrumentationRunner "androidx.test.runner.AndroidJUnitRunner"
        
          // 1) CMake 编译配置
          externalNativeBuild {
              cmake {
                  cppFlags ""
              }
          }
      }
      buildTypes {
          release {
              minifyEnabled false
              proguardFiles getDefaultProguardFile('proguard-android-optimize.txt'), 'proguard-rules.pro'
          }
      }
    
      // 2) 配置 CMakeLists 路径
      externalNativeBuild {
          cmake {
              path "src/main/cpp/CMakeLists.txt"
              version "3.10.2"
          }
      }
   }
​
  dependencies {
      // 省略无关代码
      //......
  }

最主要的两个地方是两个 externalNativeBuild 。

第 1 个 externalNativeBuild 中,可以做一些优化配置,比如只打包包含 armeabi 架构的 so :

  externalNativeBuild {
      cmake {
          cppFlags ""
      }
      ndk {
          abiFilters  "armeabi" //, "armeabi-v7a"
      }
  }

第 2 个 externalNativeBuild,主要是配置 CMakeLists.txt 的路径和版本。

Android Studio 为我们生成的关于  C/C++ 支持的主要就是以上三个地方,有了以上配置,就可以在  MainActivity 页面中正常的显示出  Hello from C++ 。

3) 在已有工程上添加 C/C++ 支持

前面就说过,在已有项目上添加 C/C++ 支持,就是由我们自己手动添加整个配置。那么根据签名介绍的三个步骤,依葫芦画瓢,就可以添加了。

这里刚好就用添加 FFMpeg so 到本系列文章现有 Demo 工程中来演示一遍。

二、引入 FFmpeg so

1. 新建 cpp 目录

首先,在 app/src/main/ 目录下,新建文件夹,并命名为 cpp 。

接着,在 cpp 目录下,右键 New -> C/C++ Source File ,新建 native-lib.cpp 文件。

接着,在 cpp 目录下,右键 New -> File ,新建 CMakeLists.txt ,先将上面 IDE 生成的那份代码粘贴进来, FFmpeg的配置在后面详细讲解。

  # CMakeLists.txt
​
  # cmake 最低版本
  cmake_minimum_required(VERSION 3.4.1)
​
  # 配置so库编译信息
  add_library( 
          # 输出so库的名称
          native-lib
​
          # 设置生成库的方式,默认为SHARE动态库
          SHARED
​
          # 列出参与编译的所有源文件
          native-lib.cpp)
​
  # 查找代码中使用到的系统库
  find_library( # Sets the name of the path variable.
        log-lib
​
        # Specifies the name of the NDK library that
        # you want CMake to locate.
        log)
​
# 指定编译目标库时,cmake要链接的库
target_link_libraries(
          # 指定目标库,native-lib 是在上面 add_library 中配置的目标库
          native-lib
​
          # 列出所有需要链接的库
          ${log-lib})

2. 将 CMakeLists 配置到 build.gradle 中

  android {
      // ...
    
      defaultConfig {
      // ...
    
      // 1) CMake 编译配置
      externalNativeBuild {
              cmake {
                  cppFlags ""
              }
          }
      }
    
      // ...
    
      // 2) 配置 CMakeLists 路径
      externalNativeBuild {
          cmake {
              path "src/main/cpp/CMakeLists.txt"
              version "3.10.2"
          }
      }
  }
​
  // ...

如果只是简单的编写 C/C++ 代码,以上基础配置就可以了。

接着来看看本文的重点,如何使用 CMakeLists.txt 引入 FFmpeg 的动态库。

3. 将 FFmpeg so 库放到对应的 CPU 架构目录

在 上一篇文章中,我们编译的 FFmpeg so 库的 CPU 架构为 armv7-a,所以,我们需要把所有的 so 库放置到 armeabi-v7a 目录下。

首先,在 app/src/main/ 目录下,新建文件夹,并命名为 jniLibs 。

app/src/main/jniLibs 是 Android Studio 默认的放置 so 动态库的目录。

接着,在 jniLibs 目录下,新建 armeabi-v7a 目录。

最后把 FFmpeg 编译得到的所有 so 库粘贴到 armeabi-v7a 目录。如下:

Android音视频: 引入FFmpeg,android,音视频,ffmpeg

so目录

4. 添加 FFmpeg so 的头文件

在编译 FFmpeg 的时候,除了生成 so 外,还会生成对应的 .h 头文件,也就是 FFmpeg 对外暴露的所有接口。

Android音视频: 引入FFmpeg,android,音视频,ffmpeg

FFmpeg编译输出

在 cpp 目录下,新建 ffmpeg 目录,然后把编译时生成的 include 文件粘贴进来。

Android音视频: 引入FFmpeg,android,音视频,ffmpeg

头文件目录

5. 添加、链接 FFmpeg so 库

上面已经把 so 和 头文件 放置到对应的目录中了,但是编译器是不会把它们编译、链接、并打包到 Apk 中的,我们还需要在 CMakeLists.txt 中显性的把相关的 so 添加和链接起来。完整的 CMakeLists.txt 如下:

  cmake_minimum_required(VERSION 3.4.1)
​
  # 支持gnu++11
  set(CMAKE_CXX_FLAGS "${CMAKE_CXX_FLAGS} -std=gnu++11")
​
  # 1. 定义so库和头文件所在目录,方面后面使用
  set(ffmpeg_lib_dir ${CMAKE_SOURCE_DIR}/../jniLibs/${ANDROID_ABI})
  set(ffmpeg_head_dir ${CMAKE_SOURCE_DIR}/ffmpeg)
​
  # 2. 添加头文件目录
  include_directories(${ffmpeg_head_dir}/include)
​
  # 3. 添加ffmpeg相关的so库
  add_library( avutil
          SHARED
          IMPORTED )
  set_target_properties( avutil
          PROPERTIES IMPORTED_LOCATION
          ${ffmpeg_lib_dir}/libavutil.so )
​
  add_library( swresample
          SHARED
          IMPORTED )
  set_target_properties( swresample
          PROPERTIES IMPORTED_LOCATION
          ${ffmpeg_lib_dir}/libswresample.so )
        
  add_library( avcodec
          SHARED
          IMPORTED )
  set_target_properties( avcodec
          PROPERTIES IMPORTED_LOCATION
          ${ffmpeg_lib_dir}/libavcodec.so )
        
  add_library( avfilter
          SHARED
          IMPORTED)
  set_target_properties( avfilter
          PROPERTIES IMPORTED_LOCATION
          ${ffmpeg_lib_dir}/libavfilter.so )
        
  add_library( swscale
          SHARED
          IMPORTED)
  set_target_properties( swscale
          PROPERTIES IMPORTED_LOCATION
          ${ffmpeg_lib_dir}/libswscale.so )
​
  add_library( avformat
          SHARED
          IMPORTED)
  set_target_properties( avformat
          PROPERTIES IMPORTED_LOCATION
          ${ffmpeg_lib_dir}/libavformat.so )
​
  add_library( avdevice
          SHARED
          IMPORTED)
  set_target_properties( avdevice
          PROPERTIES IMPORTED_LOCATION
          ${ffmpeg_lib_dir}/libavdevice.so )
​
  # 查找代码中使用到的系统库
  find_library( # Sets the name of the path variable.
          log-lib
​
          # Specifies the name of the NDK library that
          # you want CMake to locate.
          log )
​
  # 配置目标so库编译信息
  add_library( # Sets the name of the library.
          native-lib
​
          # Sets the library as a shared library.
          SHARED
​
          # Provides a relative path to your source file(s).
          native-lib.cpp
          )
​
  # 指定编译目标库时,cmake要链接的库        
  target_link_libraries( 
​
          # 指定目标库,native-lib 是在上面 add_library 中配置的目标库
          native-lib
​
  # 4. 连接 FFmpeg 相关的库
          avutil
          swresample
          avcodec
          avfilter
          swscale
          avformat
          avdevice
​
          # Links the target library to the log library
          # included in the NDK.
          ${log-lib} )

主要看看注释中新加入的 1~4 点。

1)通过 set 方法定义了 so 和 头文件 所在目录,方便后面使用。

其中  CMAKE_SOURCE_DIR 为系统变量,指向  CMakeLists.txt 所在目录。  ANDROID_ABI 也是系统变量,指向 so 对应的  CPU 框架目录:armeabi、armeabi-v7a、x86 ...
set(ffmpeg_lib_dir ${CMAKE_SOURCE_DIR}/../jniLibs/${ANDROID_ABI})
set(ffmpeg_head_dir ${CMAKE_SOURCE_DIR}/ffmpeg)

2)通过 include_directories 设置头文件查找目录

include_directories(${ffmpeg_head_dir}/include)

3)通过 add_library 添加 FFmpeg 相关的 so 库,以及 set_target_properties 设置 so 对应的目录。

其中,add_library 第一个参数为 so 名字, SHARED 表示引入方式为动态库引入。
  add_library( avcodec
          SHARED
          IMPORTED )
  set_target_properties( avcodec
          PROPERTIES IMPORTED_LOCATION
          ${ffmpeg_lib_dir}/libavcodec.so )

4)最后,通过 target_link_libraries 把前面添加进来的 FFMpeg so 库都链接到目标库 native-lib 上。

这样,我们就将 FFMpeg 相关的 so 库都引入到当前工程中了。下面就要来测试一下,是否可以正常调用到 FFmpeg 相关的方法了。

三、使用 FFmpeg

要检查 FFmpeg 是否可以使用,可以通过获取 FFmpeg 基础信息来验证。

1. 在 FFmpegAcrtivity 中添加一个外部方法 ffmpegInfo

把获取到的 FFmpeg 信息显示出来。

  class FFmpegActivity: AppCompatActivity() {
      override fun onCreate(savedInstanceState: Bundle?) {
          super.onCreate(savedInstanceState)
          setContentView(R.layout.activity_ffmpeg_info)
​
          tv.text = ffmpegInfo()
      }
​
      private external fun ffmpegInfo(): String
​
      companion object {
          init {
              System.loadLibrary("native-lib")
          }
      }
  }

2. 在 native-lib.cpp 中添加对应的 JNI 层方法

  #include <jni.h>
  #include <string>
  #include <unistd.h>
  
  extern "C" {
      #include <libavcodec/avcodec.h>
      #include <libavformat/avformat.h>
      #include <libavfilter/avfilter.h>
      #include <libavcodec/jni.h>
​
      JNIEXPORT jstring JNICALL
      Java_com_cxp_learningvideo_FFmpegActivity_ffmpegInfo(JNIEnv *env, jobject  /* this */) {
​
          char info[40000] = {0};
          AVCodec *c_temp = av_codec_next(NULL);
          while (c_temp != NULL) {
              if (c_temp->decode != NULL) {
                  sprintf(info, "%sdecode:", info);
                  switch (c_temp->type) {
                      case AVMEDIA_TYPE_VIDEO:
                          sprintf(info, "%s(video):", info);
                          break;
                      case AVMEDIA_TYPE_AUDIO:
                          sprintf(info, "%s(audio):", info);
                          break;
                      default:
                          sprintf(info, "%s(other):", info);
                          break;
                  }
                  sprintf(info, "%s[%10s]\n", info, c_temp->name);
              } else {
                  sprintf(info, "%sencode:", info);
              }
              c_temp = c_temp->next;
          }
          return env->NewStringUTF(info);
      }
  }

首先,我们看到代码被包裹在 extern "C" { } 当中,和前面的系统创建的稍微有些不同,通过这个大括号包裹,我们就不需要每个方法都添加单独的 extern "C" 开头了。

另外,由于 FFmpeg 是使用 C 语言编写的,所在 C++ 文件中引用 #include 的时候,也需要包裹在 extern "C" { },才能正确的编译。

方法的新建就不用说了,和前面介绍的命名方法一致。

在方法中,使用 FFmpeg 提供的方法 av_codec_next,获取到 FFmpeg 的编解码器,然后通过循环遍历,将所有的音视频编解码器信息拼接起来,最后返回给 Java 层。

至此,FFmpeg 加入到工程中,并被调用。

如果一切正常,App运行后,就会显示出 FFmpeg 音视频编解码器的信息。

原文 Android音视频: 引入FFmpeg - 掘金文章来源地址https://www.toymoban.com/news/detail-785215.html

到了这里,关于Android音视频: 引入FFmpeg的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • Android之 集成音视频通话

    一,背景 1.1 最近接收一个即时通讯二开项目,即时通讯部分用的XMPP协议,音视频则是集成的国外的开源免费库jitsi-meet-sdk-2.4.0-4.aar,是基于WebRTC的开源框架。但客户想要微信那种页面的排版,后来经研究jitsi是不能修改UI的,UI部分是用混合框架ReactNative写的,这样难度就大了

    2024年02月12日
    浏览(42)
  • Android音视频之协议介绍

    本文对音视频的协议起源做详细介绍,学习之后可以加深对音视频知识的了解。 这里的音视频不仅针对Android平台,其他平台也通用。 一般是指以某种格式封装了音视频数据的文件 常见的音频格式:mp3、wma、avi、rm、rmvb、flv、mpg、mov、mkv等。 常见的视频格式:rmvb、rm、wmv、

    2023年04月19日
    浏览(38)
  • 精选58道——Android 音视频面试题_安卓音视频面试题(3)

    先自我介绍一下,小编浙江大学毕业,去过华为、字节跳动等大厂,目前阿里P7 深知大多数程序员,想要提升技能,往往是自己摸索成长,但自己不成体系的自学效果低效又漫长,而且极易碰到天花板技术停滞不前! 因此收集整理了一份《2024年最新Android移动开发全套学习资

    2024年04月28日
    浏览(39)
  • 5G时代下,Android音视频强势崛起,我们该如何快速入门音视频技术?

    作为Android开发者的我们到底应不应该上音视频这条船? 接下来一起分析下。 大趋势 从未来的大趋势来看,随着5G时代的到来,音视频慢慢变成人们日常生活中的必需品。除了在线教育、音视频会议、即时通讯这些必须使用音视频技术的产品外,其它的产品也需要加入音频、

    2024年04月15日
    浏览(50)
  • Android音视频开发 - MediaMetadataRetriever 相关

    MediaMetadataRetriever 是android中用于从媒体文件中提取元数据新的类. 可以获取音频,视频和图像文件的各种信息,如时长,标题,封面等. 需要申请 读写权限 . 这里我使用的是本地路径, 需要注意的是如果路径文件不存在,会抛出 IllegalArgumentException,具体的源码如下: 根据keyCode返回keyC

    2024年04月08日
    浏览(39)
  • Android-音视频学习系列-(九)Android-端实现-rtmp-推流

    视频画面的采集主要是使用各个平台提供的摄像头 API 来实现的,在为摄像头设置了合适的参数之后,将摄像头实时采集的视频帧渲染到屏幕上提供给用户预览,然后将该视频帧传递给编码通道,进行编码。 1. 权限配置 2. 打开摄像头 2.1 检查摄像头 public static void checkCameraSe

    2024年04月12日
    浏览(39)
  • Android音视频学习系列(九) — Android端实现rtmp推流

    Android音视频学习系列(一) — JNI从入门到精通 Android音视频学习系列(二) — 交叉编译动态库、静态库的入门 Android音视频学习系列(三) — Shell脚本入门 Android音视频学习系列(四) — 一键编译32/64位FFmpeg4.2.2 Android音视频学习系列(五) — 掌握音频基础知识并使用AudioTrack、OpenSL ES渲

    2024年02月09日
    浏览(32)
  • Android音视频开发实战01-环境搭建

    FFmpeg 是一款流行的开源多媒体处理工具,它可以用于转换、编辑、录制和流式传输音视频文件。FFmpeg 具有广泛的应用场景,包括视频编解码、格式转换、裁剪、合并、滤镜等等。官网:https://ffmpeg.org/ FFmpeg 支持各种常见的音视频格式,例如 MP4、AVI、FLV、MOV、AAC、MP3、M4A 等等

    2024年02月10日
    浏览(37)
  • Android音视频开发实战02-Jni

    JNI是Java Native Interface的缩写,是Java提供的一种机制,用于在Java代码中调用本地(C/C++)代码。它允许Java代码与本地代码进行交互,通过JNI,Java应用程序可以调用一些原生库或者操作系统API,以获取更好的性能和更强的功能支持。 使用JNI需要编写一些Native方法,并将其实现在

    2024年02月11日
    浏览(38)
  • Android音视频——OpenMAX (OMX)框架

    本文分为两个部分进行讲解 Codec 部分中的 AwesomePlayer 到 OMX 服务 前面介绍了NuPlayer最终解码都会到达OMX框架,也就是 OpenMAX框架,本文开始分析编解码部分中的AwesomePlayer到OMX服务过程,也就是开启OpenMAX准备相关内容。Android系统中用OpenMAX来做编解码,Android向上抽象了一 层O

    2023年04月09日
    浏览(37)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包