Android视频融合特效播放与渲染

这篇具有很好参考价值的文章主要介绍了Android视频融合特效播放与渲染。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

AlphaPlayerPlus

一个有趣且很有创意的视频特效项目。

https://github.com/duqian291902259/AlphaPlayerPlus

前言

直播产品,需要更多炫酷的礼物特效,比如飞机特效,跑车特效,生日蛋糕融特效等,融合了直播流画面的特效。所以在字节开源的alphaPlayer库和特效VAP库的基础上进行改造,实现融合特效渲染。
支持将用户的头像、昵称、当前直播间的直播视频流等元素动态融合进视频特效中,增强用户的交互感和体验感。

Android实现

已经将原有的alphaPlayer进行升级改造,支持将用户的头像、昵称、当前直播间的直播视频流等元素动态融合进视频特效中,增强用户的交互感和体验感。

融合特效的技术原理

自研特效sdk,负责渲染视频特效。
美术负责制作特效视频,制作时将特效的颜色信息通过等分的视频区域存储,视频的左半边存放了特效原始的RGB信息,视频的右半边存放了特效的透明度和遮罩的透明度等信息。

透明视频的渲染

特效渲染时,读取左半部分纹理的RGB值,作为原始视频的主体颜色,右半部分纹理的R通道值作为Alpha值,得到视频纹理的rgba值,进行着色渲染,得到带透明度的特效纹理,如下图所示:
Android视频融合特效播放与渲染

视频融合遮罩素材

通常特效中的融合区域,会随着场景的变换,产生近大远小的透视3D效果,而不是维持标准的矩形形状。在图形渲染技术中,对于渲染的顶点坐标组成非平行四边形形状,GPU默认对组成四边形的两个三角形分别采用线性纹理插值的方式,渲染的结果可以看到两个三角形虽然在接缝处是连续的,单其导数(切线和双线向量)在此处不连续,效果无法达到预期,如图2所示。为解决这一问题,需要使用投影插值的方式,将融合纹理渲染的2D顶点坐标,通过透视变换的到贴合特效的形状,从而模拟3D的视觉效果。可以将这一过程抽象成将一个矩形,经过透视变换,得到一个非平行四边形的过程。

将带透明度的特效纹理,与融合元素的纹理,根据资源右侧部分的G值进行融合渲染。融合渲染的RGB= (特效纹理RGB)(1-右侧G)+(融合纹理RGB)(右侧G),融合渲染的Alpha值=(右侧R)(1-右侧G)+(右侧G)(右侧G)。得到融合后的特效纹理,最终渲染到设备屏幕上。

融合特效的数据管理

原始视频与遮罩素材的融合过程以及而遮罩的渲染,是在原有右边灰色视频的基础上,采用G通道值表示遮罩的区域,后续遮罩渲染需要根据G通道的值作为融合的透明度。
因视频数据帧比较多,里面的遮罩位置、个数、文字内容、文字颜色、图片展示形式,千差万别,渲染时直接处理,有很多东西是程序未知的,所以需要对素材预处理,提前得到这些信息,生成一份渲染专用的json配置文件。这份文件要么放在视频中,要么服务器下发(目前我们这两种方式都会采用,遮罩相关的信息放视频中,与用户相关的信息接口提供)。

1,预处理工具

负责获取特效渲染所需的资源数据和遮罩数据。遮罩素材,需要专门导出一个视频(右侧部分)用于识别遮罩的区域和色值。

2,Mp4播放渲染。

其中对遮罩的识别、坐标位置的确定、变换矩阵的生成,由工具识别素材视频,最终导出json格式,写入进mp4容器的自定义box中。
我们端上需要解析出json,然后封装成对应的实体类,方便渲染时读取遮罩信息,并替换成实际的文字、图片、直播帧数据。

融合特效渲染步骤

1,原有的特效视频渲染,支持带alpha通道的mp4视频。我们可以得到视频纹理id:mVideoTextureId,包含左右灰色和透明区域。
2,使用FBO,对文字,图片,直播流的数据进行二次处理,确定渲染的顶点位置和纹理坐标,渲染成屏幕大小的纹理:fboTextureId
3,将mVideoTextureId和fboTextureId传入最终融合的着色器处理,得到最终的展示效果。
以上三个步骤,面涉及到很多细节,需要了解OpenGL的坐标体系,绘制步骤和基本原理。具体可以参看项目代码。

流程图

Android视频融合特效播放与渲染

实现的效果

Android视频融合特效播放与渲染
Android视频融合特效播放与渲染

接入说明

可以参看demo项目,暂未开放。demo只提供图片和文字融合效果的实现。
1,可以实现图片、视频流融合效果
2,图片+文字的融合效果
3,配置入口:PlayerController.get(configuration, mediaPlayer)
4,VideoGiftView,只是封装了PlayerController和播放容器。
5,音视频播放器可以自定义,也可以用现有的实现。AlphaMediaPlayer便于控制解码、渲染次数。
6,其他的播放器( DefaultSystemPlayer、ExoPlayerImpl)播放的话,渲染遮罩的帧索引需要将json中的index-1,否则无法对齐原始素材效果
7,ALog:内部log输出接口,外部可以自行实现打印。
8,IFetchResource:资源接口:外部传入文本、图片等资源给遮罩帧使用。

Android API说明

初始化配置信息、PlayerController
val configuration = Configuration(context,owner)
        //  GLTextureView supports custom display layer, but GLSurfaceView has better performance, and the GLSurfaceView is default.
        configuration.alphaVideoViewType = AlphaVideoViewType.GL_SURFACE_VIEW
        // AlphaMediaPlayer便于控制解码、渲染次数,其他的播放器,渲染帧索引需要将json中的数字-1,否则无法对齐
        //val mediaPlayer = DefaultSystemPlayer()
        //val mediaPlayer = ExoPlayerImpl(context)
        val mediaPlayer = AlphaMediaPlayer(context)
        mPlayerController = PlayerController.get(configuration, mediaPlayer)
        .//设置监听
        mPlayerController?.let {
            it.setPlayerAction(playerAction)
            it.setFetchResource(fetchResource)
            //it.setMonitor(monitor)
        }
设置流数据监听
    mPlayerController.setOnRenderLiveFrameListener(() -> {
        //通知外部,有遮罩需要用到视频流画面,开始渲染直播画面,自定实现监听流,本demo无流数据来源,暂不提供实现。
        // 然后将流里面的直播画面的数据共享到surfaceTexture,通过以下调用传回给sdk内部渲染:
    });
 
IPlayerAction接口
private val playerAction = object : IPlayerAction {
        override fun onVideoSizeChanged(videoWidth: Int, videoHeight: Int, scaleType: ScaleType) {
            Log.i(TAG, "视频实际的宽高改变,用户改变渲染容器size:onVideoSizeChanged,videoWidth=$videoWidth, videoHeight=$videoHeight,scaleType=$scaleType")
        }
        override fun startAction() {
            Log.i(TAG, "开始播放")
        }
        override fun endAction(status: Int, mVideoPath: String?) {
            Log.i(TAG, "结束播放,错误码和出错的url,方便做重新播放逻辑")
        }
    }
资源接口说明
interface IFetchResource {
    // 获取图片 (暂时不支持Bitmap.Config.ALPHA_8 主要是因为一些机型opengl兼容问题)
    fun fetchImage(resource: Resource, result: (Bitmap?) -> Unit)
    // 获取文字
    fun fetchText(resource: Resource, result: (String?) -> Unit)
    // 资源释放通知
    fun releaseResource(resources: List<Resource>)
}
自定义Log

回调中使用自己的log实现

private fun initLog() {
        ALog.isDebug = BuildConfig.DEBUG
        ALog.log = ALogImp()

class ALogImp : IALog {
        override fun i(tag: String, msg: String) {
            Log.i(tag, msg)
        }
        override fun d(tag: String, msg: String) {
            Log.d(tag, msg)
        }
        override fun e(tag: String, msg: String) {
            Log.e(tag, msg)
        }
    }

测试demo,资源的路径

1,进入gift/demoRes/目录.
2,adb push demoRes /sdcard/alphaVideoGift/
3,build–>run.

注意事项:

demo的可以配置外部json
dataSource.configJsonPath = “/sdcard/alphaVideoGift/xxx.json”
也可以将json数据写入mp4视频,自定义一个box,播放视频前解析出json即可以不配置外部json

技术实现,部分代码

1,顶点、纹理坐标array
 val array = FloatArray(8)
private var floatBuffer: FloatBuffer = ByteBuffer
            .allocateDirect(array.size * 4)
            .order(ByteOrder.nativeOrder())
            .asFloatBuffer()
            .put(array)
            
fun setVertexAttribPointer(attributeLocation: Int) {
        if (attributeLocation < 0) {
            EGLUtil.checkGlError("return setVertexAttribPointer $attributeLocation")
            return
        }
        floatBuffer.position(0)
        GLES20.glVertexAttribPointer(attributeLocation, 2, GLES20.GL_FLOAT, false, 0, floatBuffer)
        GLES20.glEnableVertexAttribArray(attributeLocation)
        EGLUtil.checkGlError("setVertexAttribPointer $attributeLocation")
    }

2,设置坐标数组
  // 顶点坐标,遮罩渲染rect
        val rect = config.rgbPointRect
        vertexArray.setArray(
                VertexUtil.create(
                        config.renderWidth,
                        config.renderHeight,
                        rect,
                        vertexArray.array
                )
        )
        vertexArray.setVertexAttribPointer(shader.aPositionLocation)

3,顶点坐标的转换
    fun create(width: Int, height: Int, rect: PointRect, array: FloatArray): FloatArray {
        // x0
        array[0] = switchX(rect.x.toFloat() / width)
        // y0
        array[1] = switchY(rect.y.toFloat() / height)
        // x1
        array[2] = switchX(rect.x.toFloat() / width)
        // y1
        array[3] = switchY((rect.y.toFloat() + rect.height) / height)
        // x2
        array[4] = switchX((rect.x.toFloat() + rect.width) / width)
        // y2
        array[5] = switchY(rect.y.toFloat() / height)
        // x3
        array[6] = switchX((rect.x.toFloat() + rect.width) / width)
        // y3
        array[7] = switchY((rect.y.toFloat() + rect.height) / height)
        return array
    }
    
    private fun switchX(x: Float): Float {
        return x * 2f - 1f
    }
    private fun switchY(y: Float): Float {
        return -y * 2f + 1 //((y * 2f - 2f) * -1f) - 1f
    }
4,纹理坐标的转换
    fun create(width: Int, height: Int, rect: PointRect, array: FloatArray): FloatArray {
        // x0
        array[0] = rect.x.toFloat() / width
        // y0
        array[1] = rect.y.toFloat() / height
        // x1
        array[2] = rect.x.toFloat() / width
        // y1
        array[3] = (rect.y.toFloat() + rect.height) / height
        // x2
        array[4] = (rect.x.toFloat() + rect.width) / width
        // y2
        array[5] = rect.y.toFloat() / height
        // x3
        array[6] = (rect.x.toFloat() + rect.width) / width
        // y3
        array[7] = (rect.y.toFloat() + rect.height) / height
        return array
    }

部分融合的顶点、片元着色器

class FinalMixShader {
    companion object {
        private const val NO_POSITION = -1

        private const val VERTEX = """
                attribute vec4 a_Position;  
                attribute vec2 a_TexCoordinateSrc;
                attribute vec4 a_TexCoordinateRgb;
                attribute vec4 a_TexCoordinateAlpha;
                varying vec2 v_TexCoordinateSrc;
                varying vec2 v_TexCoordinateRgb;
                varying vec2 v_TexCoordinateAlpha;
                void main()
                {
                    v_TexCoordinateAlpha = vec2(a_TexCoordinateAlpha.x, a_TexCoordinateAlpha.y);
                    v_TexCoordinateRgb = vec2(a_TexCoordinateRgb.x, a_TexCoordinateRgb.y);
                    v_TexCoordinateSrc = a_TexCoordinateSrc;
                    gl_Position = a_Position;
                }
        """

        private const val FRAGMENT = """
                #extension GL_OES_EGL_image_external : require
                precision mediump float; 
                uniform sampler2D u_TextureSrcUnit;
                uniform samplerExternalOES u_TextureVideoUnit;
                varying vec2 v_TexCoordinateSrc;
                varying vec2 v_TexCoordinateRgb;
                varying vec2 v_TexCoordinateAlpha;
                void main()
                {
                    vec4 alphaColor = texture2D(u_TextureVideoUnit, v_TexCoordinateAlpha);
                    vec4 rgbColor = texture2D(u_TextureVideoUnit, v_TexCoordinateRgb);
                    vec4 srcRgba = texture2D(u_TextureSrcUnit, v_TexCoordinateSrc);
                    if (srcRgba.rgb == vec3(0.0, 0.0, 0.0) || srcRgba.a == 0.0) {
                        gl_FragColor = vec4(rgbColor.rgb,alphaColor.r);
                    } else {
                         mediump float green = alphaColor.g;
                         mediump float percent = green;
                         gl_FragColor = vec4(mix(rgbColor.rgb, srcRgba.rgb, percent), mix(rgbColor.a, green, percent));
                    }
                }
        """
    }
}

部分OpenGL渲染

 // 传入遮罩纹理和视频纹理
        if (fboTextureId >= 0) {
            GLES20.glActiveTexture(GLES20.GL_TEXTURE0)
            GLES20.glBindTexture(GLES20.GL_TEXTURE_2D, fboTextureId)
            GLES20.glUniform1i(shader.uTextureSrcUnitLocation, 0)
        }
        if (mVideoTextureId >= 0) {
            GLES20.glActiveTexture(GLES20.GL_TEXTURE1)
            GLES20.glBindTexture(VideoRender.GL_TEXTURE_EXTERNAL_OES, mVideoTextureId)
            GLES20.glUniform1i(shader.uTextureMaskUnitLocation, 1)
        }

        EGLUtil.enableBlend()
        // draw
        GLES20.glDrawArrays(GLES20.GL_TRIANGLE_STRIP, 0, 4)
        EGLUtil.checkGlError("final mix render")

其他说明

本文主要是Android端的实现,是技术预研阶段的设计思想和某些实现,实际应用中的会有更多拓展和优化。仅供学习交流,是在已有开源项目的基础上的拓展和学习。文章如有侵权,可以留言联系杜小菜。
早期sdk版本可参看:
https://github.com/duqian291902259/AlphaPlayerPlus文章来源地址https://www.toymoban.com/news/detail-412489.html

到了这里,关于Android视频融合特效播放与渲染的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • Flutter 使用Texture实现Android渲染视频

    第一章 Android使用Texture渲染视频(本章) 第二章 Windows使用Texture渲染视频 第三章 Linux使用Texture渲染视频 第四章 全平台FFI+CustomPainter渲染视频 第五章 Windows使用Native窗口渲染视频 第六章 桌面端使用texture_rgba_renderer渲染视频 flutter渲染视频的方法有多种,比如texture、platformv

    2023年04月08日
    浏览(33)
  • Android 视频播放

    1.用MEDIAPLAYER+TEXTUREVIEW封装好的视频播放器,可直接使用(附DEMO) 地址: 【Android 前沿技术】用MediaPlayer+TextureView封装好的视频播放器,可直接使用(附demo) - 灰信网(软件开发博客聚合)  https://www.freesion.com/article/3306560066/   下载地址: GitHub - colinNaive/VideoApplication: Androi

    2023年04月08日
    浏览(24)
  • Android视频播放之VideoView

    1、VideoView类介绍 Android的VideoView组件可以从不同的来源(例如资源文件或内容提供器)读取图像,计算和维护视频的画面尺寸以使其适用于任何布局管理器,并提供一些诸如缩放、着色之类的显示选项,包含在widget下面:android.widget.VideoView。Android中视屏播放框架如下图: 从

    2024年02月20日
    浏览(27)
  • Android 播放视频之VideoView

    VideoView 继承 SurfaceView ,并且实现了 MediaPlayerControl 接口,相当于 MediaPlayer+SurfaceView 的组合。关于 MediaPlayer 可参考这里。 在布局文件里添加 VideoView 在 Activity 里面播放视频 主要方法 VideoView 里面有 mCurrentState 和 mTargetState 两个状态,当前状态和目标状态,初始值都是 STATE_ID

    2024年02月02日
    浏览(35)
  • Android 播放视频之ExoPlayer

    在上一篇中,我们了解了系统自带的 VideoView 来播放视频,但其支持的视频格式偏少,我们需要其他的视频播放器。 ExoPlayer 是Google的开源的应用级媒体播放器项目,支持多种视频格式和流媒体播放,GitHub地址。 导入 ExoPlayer 在布局文件里添加 StyledPlayerView 在 Activity 里面播放

    2024年02月15日
    浏览(38)
  • Android之播放本地视频和Url视频方法

    根据文件路径在浏览器中播放,可用于视频预览等场景 效果: 用浏览器播放本地视频 文件路径例子: /storage/emulated/0/Android/data/com.custom.jfrb/files/Movies/1697687179497.mp4 效果: 播放Url视频 1、导入依赖 2、xml文件 3、Activity中调用 (1) 绑定控件 (2)播放视频 视频Url例子:https:

    2024年02月08日
    浏览(43)
  • Android开发之视频播放器

    今天教大家做一个简单的视频播放器hh 至此,结束!

    2023年04月09日
    浏览(41)
  • Android 视频播放器dkplayer

    gihub地址 : https://github.com/Doikki/DKVideoPlayer GitHub - Doikki/DKVideoPlayer: Android Video Player. 安卓视频播放器,封装MediaPlayer、ExoPlayer、IjkPlayer。模仿抖音并实现预加载,列表播放,悬浮播放,广告播放,弹幕,视频水印,视频滤镜 列表播放如图所示: 一、依赖 二、工具类 Tag.java Vi

    2024年02月13日
    浏览(36)
  • Android学习6——视频播放器

    一、学习目标 1. 综合应用课程知识。 2. 掌握 App 开发流程及相关工具。 3. 设计 一个基于 Android 平台的简单视频播放器。 二、环境 1.JDK-15.0.2 以上 2.Android Studio 4.1 以上 3.Android 10.0 ( API level 29 ) 三、内容 软件功能简介 (1) 能够播放 3gp, .mp4 等文件; (2) 能处理简单的异常,例

    2024年02月01日
    浏览(75)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包