unity的CommandBuffer介绍

这篇具有很好参考价值的文章主要介绍了unity的CommandBuffer介绍。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

  大家好,我是阿赵。
  之前介绍过使用PostProcessing来做屏幕后处理效果。我们不一定要用PostProcessing来做后处理效果。
  PostProcessing功能强大,比如不同的layer控制不同的屏幕效果,比如可以使用PostProcessVolume的非全局效果达到某个范围内有过渡性的后处理效果。但如果我们并没有用到这些效果,只是单纯的想在自己需要的时候,添加一个指定摄像机的屏幕效果,那么其实选择还有很多,比如Unity本身提供了Graphics图形接口,还有CommandBuffer相关的方法,也是可以直接制作屏幕效果的。
  从PostProcessing的实现原理来说,他其实也是使用了CommandBuffer来实现,只是对它进行了封装。
  下面来介绍一下CommandBuffer。

一、Graphics和CommandBuffer

  在PostProcessing出现之前,我们同样可以制作屏幕后处理效果,一般的做法是:
  在OnRenderImage声明周期方法里面,通过Graphics.Blit(source, destination, material)方法,对摄像机传入的屏幕渲染结果,通过自己指定的材质球里面的shader处理,得到一张新的屏幕渲染效果,然后显示在屏幕上面。
  这里出现了Graphics。
  Graphics是Unity提供的图形绘制接口,除了Blit方法,还有很多其他的绘制方法,比如CopyTexture、DrawMesh、DrawTexture等。
  然后看CommandBuffer,它也提供了CommandBuffer.Blit方法,也提供了DrawMesh之类的方法。其实很多人到了这一步就开始有点困惑了。Graphics和CommandBuffer有什么区别呢?为什么都提供差不多的方法呢?什么时候该用Graphics,什么时候该用CommandBuffer呢?
  虽然两者很相似,但他们两个代表的含义是不一样的。

1、Graphics

  当我们调用Graphics方法时,它都是直接生效的,或者下一帧就生效的。比如我们调用Graphics.Blit方法,它会立刻就把原图通过shader处理,输出一张新图。比如我们DrawMesh,它会在下一帧就把我们需要的网格模型渲染出来。如果用DrawMeshNow,它就会在同一帧立刻把网格模型渲染出来。它是一个实际执行的命令。

2、CommandBuffer

  CommandBuffer是一个对象,其实是一个命令的列表。我们可以创建一个CommandBuffer对象,然后把需要它做的事情添加到这个对象的命令列表里面。至于什么时候执行,是可以控制的。比如我们可以把这个列表命令添加到摄像机渲染的某一个过程中间,或者灯光渲染的某个过程中间执行。也可以调用Graphics.ExecuteCommandBuffer方法,立刻执行这些命令。

二、CommandBuffer的执行过程

1、正常的渲染过程

  如果我们打开Unity自带的FrameDebug工具,可以看到整个渲染的过程
比如在Deferred延迟渲染里面,过程如下图:
commandbuffer,Unity屏幕后处理,unity,游戏引擎,CommandBuffer,后处理

如果是Forward前向渲染,过程会如下图
commandbuffer,Unity屏幕后处理,unity,游戏引擎,CommandBuffer,后处理
commandbuffer,Unity屏幕后处理,unity,游戏引擎,CommandBuffer,后处理
commandbuffer,Unity屏幕后处理,unity,游戏引擎,CommandBuffer,后处理

  如果选中其中的步骤,可以看到该步骤是渲染了什么画面,一步一步的看这个过程,对我们理解渲染是很有帮助的。

2、插入CommandBuffer的过程

  通过添加CommandBuffer命令,我们可以做到的是,在上面的渲染过程的其中一个步骤,插入自己想要的渲染处理。
  比如我这里截取一段代码:

        cmd1 = new CommandBuffer();
        cmd1.name = "AzhaoDrawLightObj";

        cmd1.SetRenderTarget(rt1);
        cmd1.ClearRenderTarget(true, true, Color.clear);

        for (int i = 0; i < renders.Length; i++)
        {
            Renderer item = renders[i];
            if (item.gameObject.activeInHierarchy == false || item.enabled == false)
            {
                continue;
            }
            if(item.gameObject.layer == 8)
            {
                cmd1.DrawRenderer(item, whiteMat);
            }
            else
            {
                cmd1.DrawRenderer(item, blackMat);
            }
            
        }

        cmd1.Blit(rt1, rt2);
        for (int i = 0; i < iterations; i++)
        {
            blurMat.SetFloat("_BlurSize", 1.0f + i * blurSpread);

            cmd1.Blit(rt2, rt3, blurMat, 0); 

            cmd1.Blit(rt3, rt2, blurMat, 1); 

        }
        cmd1.Blit(rt2, rt1);
        comMat.SetTexture("_AddTex", rt1);
        cam.AddCommandBuffer(CameraEvent.BeforeImageEffects, cmd1);

  这里我创建了一个名字叫做AzhaoDrawLightObj的CommandBuffer命令列表,然后我打算在刚才2个球的中间,渲染一个会发光的Cube立方体,所以给这个叫做AzhaoDrawLightObj的CommandBuffer添加了很多命令。具体这些命令是干什么用的,现在不需要去深究,之后我会单独写文章说明。
这里只需要关注两段:
第一段:

cmd1 = new CommandBuffer();
cmd1.name = "AzhaoDrawLightObj";
cmd1.SetRenderTarget(rt1);
cmd1.ClearRenderTarget(true, true, Color.clear);

  这一段是创建了CommandBuffer,给它命名,然后设置目标渲染的RenderTexture,并且清理这张RenderTexture
第二段:

cam.AddCommandBuffer(CameraEvent.BeforeImageEffects, cmd1);

  这一句代码,cam是一个Camera摄像机,通过AddCommandBuffer方法,我把刚刚创建的CommandBuffer添加到摄像机上面。CameraEvent.BeforeImageEffects是指定这个CommandBuffer生效的时机。
再回头看FrameDebug的渲染过程:
commandbuffer,Unity屏幕后处理,unity,游戏引擎,CommandBuffer,后处理

  会发现在渲染过程中,插入了BeforeImageEffects这个过程,里面就看到我刚刚添加的AzhaoDrawLightObj的过程了。
commandbuffer,Unity屏幕后处理,unity,游戏引擎,CommandBuffer,后处理

  现在在两个球中间,就单独出现了一个会放过的立方体了。使用CommandBuffer是比较自由的,可以控制渲染单个物体,可以控制在某个时机处理特定的渲染,这些自由度,是使用固定的PostProcessing很难做得到的。
commandbuffer,Unity屏幕后处理,unity,游戏引擎,CommandBuffer,后处理

  这时候可以在摄像机上面,看到有哪些CommandBuffer添加了。
  值得注意的是,给摄像机添加CommandBuffer,只需要在OnEnable生命周期添加一次,就能一直生效,不要在Update添加,不然会发现重复添加了非常多。
这是在Update里面调用添加的后果:
commandbuffer,Unity屏幕后处理,unity,游戏引擎,CommandBuffer,后处理

既然是在OnEnable里面添加的,也要记得在OnDisable里面删除。

void OnDisable()
{
    if (cmd1!=null)
    {
        cmd1.Dispose();
        cmd1 = null;
    }
}

三、添加CommandBuffer的事件说明

  这里说明的是CameraEvent事件,在不同的渲染模式下,使用的CameraEvent事件是不一样的,千万不要用错了。除了CameraEvent还有LightEvent
  下面是Unity的官方文档里面对CameraEvent和LightEvent执行顺序的说明

1、Deferred rendering path

CameraEvent.BeforeGBuffer
Unity renders opaque geometry
CameraEvent.AfterGBuffer
Unity resolves depth.
CameraEvent.BeforeReflections
Unity renders default reflections, and Reflection Probe reflections.
CameraEvent.AfterReflections
Unity copies reflections to the Emissive channel of the G-buffer.
CameraEvent.BeforeLighting
Unity renders shadows. See LightEvent order of execution.
CameraEvent.AfterLighting
CameraEvent.BeforeFinalPass
Unity processes the final pass.
CameraEvent.AfterFinalPass
CameraEvent.BeforeForwardOpaque (only called if there is opaque geometry that cannot be rendered using deferred)
Unity renders opaque geometry that cannot be rendered with deferred rendering.
CameraEvent.AfterForwardOpaque (only called if there is opaque geometry that cannot be rendered using deferred)
CameraEvent.BeforeSkybox
Unity renders the skybox
CameraEvent.AfterSkybox
Unity renders halos.
CameraEvent.BeforeImageEffectsOpaque
Unity applies opaque-only post-processing effects.
CameraEvent.AfterImageEffectsOpaque
CameraEvent.BeforeForwardAlpha
Unity renders transparent geometry, and UI Canvases with a Rendering Mode of Screen Space - Camera
.
CameraEvent.AfterForwardAlpha
CameraEvent.BeforeHaloAndLensFlares
Unity renders lens flares.
CameraEvent.AfterHaloAndLensFlares
CameraEvent.BeforeImageEffects
Unity applies post-processing effects.
CameraEvent.AfterImageEffects
CameraEvent.AfterEverything
Unity renders UI Canvases with a Rendering Mode that is not Screen Space - Camera.

2、Forward rendering path

CameraEvent.BeforeDepthTexture
Unity renders depth for opaque geometry.
CameraEvent.AfterDepthTexture
CameraEvent.BeforeDepthNormalsTexture
Unity renders depth normals for opaque geometry.
CameraEvent.AfterDepthNormalsTexture
Unity renders shadows. See LightEvent order of execution.
CameraEvent.BeforeForwardOpaque
Unity renders opaque geometry.
CameraEvent.AfterForwardOpaque
CameraEvent.BeforeSkybox
Unity renders the skybox.
CameraEvent.AfterSkybox
Unity renders halos.
CameraEvent.BeforeImageEffectsOpaque
Unity applies opaque-only post-processing effects.
CameraEvent.AfterImageEffectsOpaque
CameraEvent.BeforeForwardAlpha
Unity renders transparent geometry, and UI Canvases with a Rendering Mode of Screen Space - Camera.
CameraEvent.AfterForwardAlpha
CameraEvent.BeforeHaloAndLensFlares
Unity renders lens flares.
CameraEvent.AfterHaloAndLensFlares
CameraEvent.BeforeImageEffects
Unity applies post-processing effects.
CameraEvent.AfterImageEffects
CameraEvent.AfterEverything
Unity renders UI Canvases with a Rendering Mode that is not Screen Space - Camera.

3、LightEvent

LightEvent.BeforeShadowMap
LightEvent.BeforeShadowMapPass
Unity renders all shadow casters for the current Pass
LightEvent.AfterShadowMapPass
Unity repeats the last three steps, for each Pass
LightEvent.AfterShadowMap
LightEvent.BeforeScreenSpaceMask
Unity gathers the shadow map into a screen space buffer and performs filtering *AfterScreenSpaceMask文章来源地址https://www.toymoban.com/news/detail-744041.html

到了这里,关于unity的CommandBuffer介绍的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • 【Unity】 Canvas及UI屏幕自适应的基本介绍

    当使用Unity引擎开发游戏时,可以使用Canvas(画布)来处理游戏中的用户界面࿰

    2024年02月12日
    浏览(37)
  • Unity 引擎做残影效果——2、屏幕后处理方式

    Unity实现残影效果   大家好,我是阿赵。   这里继续介绍Unity里面做残影的方法。之前介绍了BakeMesh的方法做残影,这一期介绍的是用屏幕后处理的方法做残影。   之前的BakeMesh方法,是真的生成了很多个网格模型在场景里面。如果用后处理做,就没有这个过程。   

    2024年01月17日
    浏览(32)
  • 【Unity Shader】屏幕后处理3.0:均值模糊和高斯模糊

    发现之前学习记录的太过详细,导致整理的过程占用太长的时间了,这篇之后博客重要的是掌握实现过程,关于基础的理论会更多的放上别人写得更好的文章。 参考:【Unity Shader编程】之十五 屏幕高斯模糊(Gaussian Blur)后期特效的实现 高斯模糊只是各种模糊方式中的一种。模

    2023年04月08日
    浏览(28)
  • 【Unity Shader】屏幕后处理4.0:基于高斯模糊的Bloom

    原本打算写高斯模糊和双重模糊两个实现Bloom方法的对比,但两个加在一起篇幅过长,于是拆成两篇文章来进行。 学习前建议应先搞清楚的几个概念 HDR LDR ToneMapping 几种模糊算法 最近一直在学习Unity Shader实现各种后处理效果,Bloom效果就是其中之一,它也是游戏中最常见的效

    2023年04月11日
    浏览(34)
  • Unity游戏逆向及破解方法介绍

    背景介绍 随着手游的发展,Unity3D引擎逐渐成为主流的游戏开发解决方案,传统cocos的2D游戏逐渐被取代,一些公司在Unity3D游戏方面的产出也越来越多,如天天飞车,天天来战,全民破坏神,全民偶像,全民突击等游戏。Unity3D游戏的不断产出,游戏的安全性要求也越来越高,

    2023年04月08日
    浏览(30)
  • [游戏开发][Unity]Assetbundle打包篇(1)打包流程介绍

    打包与资源加载框架目录 先捋一下打AB包的整体思路,首先,Unity4.6版本之后就使用了全新的打包接口 无论是全新打包还是增量打包都是使用这个API,所以一切的一切,都要围绕这个API开始讲起。 该API有四个参数 string outputPath AssetBundleBuild[] builds BuildAssetBundleOptions assetBundle

    2024年02月10日
    浏览(31)
  • DOTS介绍+Unity DOTS-MAN小游戏项目实战

    DOTS是Unity在17年左右提出的一个概念,其核心是ECS。 提示:以下是本篇文章正文内容,下面案例可供参考 全称:(Multi-Thread)Data-Oriented-Tech-Stack (多线程式)数据导向型技术堆栈 实体组件系统(ECS) - 提供使用面向数据的方法进行编码的框架。在Unity中它通过Entities软件包进行分发,

    2023年04月13日
    浏览(27)
  • Unity的PostProcessing后处理使用介绍

    大家好,我是阿赵。 上一篇文章说了Unity的PostProcessing后处理有bug并提供了解决办法,这里顺便介绍一下PostProcessing的用法。 打开PackageManager,然后搜索Post,应该就能看到左边出现搜索结果,选择,然后Install安装。 安装完之后,会看到在Packages里面出现了PostProcessing文件夹。

    2024年02月05日
    浏览(23)
  • Unity3D:当频繁隐藏和显示游戏物体时,最优的处理方式

    首先说明一下处理的方法一般一共有3种 1.SetActive显示和隐藏物体【不推荐】 优:停止了Update和LateUpdate的性能消耗 劣:每一次显示会调用OnEnable,每一次隐藏会调用OnDisable 2.设置物体的位置,使物体移出摄像机的视野【不推荐】 优:相比较SetActive来说,没什么性能消耗 劣:

    2024年02月12日
    浏览(34)
  • 游戏开发常用引擎工具介绍对比区别(UE4,Unity,Cocos,LayaAir,[egret-白鹭])

    是一套为开发实时技术而存在的引擎工具。目前广泛应用于3D建模渲染、游戏开发中。它完善的工具套件以及简易的工作流程能够使开发者快速修改或查看成果,对于代码的依赖性很低。而完整公开的源代码则能让使用者自由修改和扩展引擎功能。 是面向开发人员的 3D/2D 游戏

    2024年02月13日
    浏览(46)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包