写在前面
【技术美术图形部分】简述主流及新的抗锯齿技术,花了点时间盘点了一些主流AA技术,再在SRP下的URP管线中实现一下目前游戏用得比较多的TAA。参考Unity的TAA(比较容易懂)以及sienaiwun的实现思路,也参考了很多文章(主要是这位大佬),可以说这次实现其实是对目前能找得到的实现思路的大融合!
本文叙述会尽可能多地体现自己的理解,也算是一次学习。
前置知识
SRP?
随意找了篇介绍SRP的,可以看看:Unity URP/SRP 渲染管线浅入深出【匠】
全称,可编程渲染管线。
相信很多人跟我一样,入门阶段一直是基于Unity内置管线(Build-in)开展学习,直到后面接触到了HDRP(高清渲管线)和URP(通用管线),才发现要学的东西还有好多,,,而且不止这些,甚至还要学习和这些光栅化管线完全不同的光追管线,,,自以为“入门了”但其实人还在坑里呢,现在逃还来得及!!!(不是)
回到正题!其实SRP并不可怕,只需要知道有了它我们可以通过C#脚本调用封装的API来创建自定义管线,渲染流程可自定和修改——就能实现管线定制了,没有Build-in那么死板。URP和HDRP就是两个Unity基于SRP为我们拓展的管线模板,URP难就难在一些函数名称完全被更改,还需要重写函数。
我学习SRP的思路一直都是以实现某种功能为目标,尝试在SRP搭建管线(之前做过URP下实现毛玻璃),以及这一篇SRP下自定义管线实现TAA。刚入门啥都不会的跟着官方阿b发的视频做一次:URP系列教程 | 如何使用Scriptable Renderer Feature来自定义后处理效果
说得挺乱的,总之一句话:SRP和固定管线绝对不是完全割裂的,遇到新管线不需要害怕,学就完事了。
Volume组件
这部分可以看看:如何扩展Unity URP的后处理Volume组件
实现TAA还需要了解URP的Volume组件——URP实现屏幕后处理的核心组件,我们可以通过Volume组件下的Add Override添加屏幕后处理效果:
我们如果想实现TAA,也需要添加一个类似“TAA开关”的东西,意味着我们需要去拓展Volume Overide,简单来讲就是再写一个TAA,cs的实现脚本。
TAA实现思路
强烈建议看完这个篇文章:DX12渲染管线(2) - 时间性抗锯齿(TAA)
RenderFeature实现TAA
TemporalAA需要处理静止和动态画面,而动态需要解决残影问题,参考大部分文章的思路,本文也将通过RendererFeature去实现TAA,实现过程的话需要以下三个部分,
- 处理渲染管线
- 处理Global Volume
- Shader实现TAA混合
整体框架如下:
大概思路:首先,我们需要创建TAARendererFeature.cs和Renderer,
再把RendererFeature给Add一下Renderer,
然后在这个RenderFeature里生成相机抖动值,通过一个TAARenderPass.cs实现最终的画面渲染 。还需要一个专门的抖动相机的Pass,CameraSettingPass.cs,用于改变相机的透视变换矩阵(后面会讲到)。此外还需要给Global Volume加上自定义的TAA,那就又要创建一个TAA.cs文件,作为一个TAA开关。
于是细化的话,步骤主体包括以下脚本,
- 一个RendererFeature类:TAARendererFeature.cs
- 一个RenderPass类:TAARenderPass.cs
- 一个RenderPass类:CameraSettingPass.cs
- 与Global Volume搭接:TAA.cs
对框架做一个简单的概述后,开始从实现静态场景的TAA出发,一点一点写脚本和shader:
1 静态场景
静态场景理解起来很容易,需要在下一帧渲染时将采样上一帧的子像素点偏移,确保每一帧偏移不同位置,最终取全部帧的平均值,整个过程涉及到以下两点,
- 抖动采样——如何进行采样偏移?
- 历史帧混合——如何混合历史帧得到平均值?
1.1 抖动采样
采样方法
在采样点个数上,TAA和传统超采样的想法是一致的——生成更多的采样点以获得更加细致的采样效果,但因为是逐帧抖动再取所有的均值,除了每一帧的空间上采样还涉及逐帧的时间上采样,所以采样方法也涉及到两个方面,
- 空间上——我们希望采样点不能太过随机,不然总会有堆叠的情况
- 时间上——我们希望逐帧也能够均匀分布
最后我选取的采样方法参考了这篇文章:采用Stratified sampler进行空间上的采样(有时间的话还可以拿box和泊松给它对比一下),时间上选择了前8个halton(2,3)进行相机抖动:
先看看如何生成Halton序列吧,我并没有单独设一个Halton数列的Class,而是参考大佬思路囊括进了RendererFeature中,浅看一下:
// 抖动用的Halton
// 这里直接照搬大佬设置的函数了,没多余时间细究了orz
private float HaltonSeq(int prime, int index = 1/* NOT! zero-based */)
{
float r = 0.0f;
float f = 1.0f;
int i = index;
while (i > 0)
{
f /= prime;
r += f * (i % prime);
i = (int)Mathf.Floor(i / (float)prime);
}
return r;
}
上述代码的生成Halton序列的方法中i指的就是序列的第几位数,再根据Halton数列计算抖动值,实现是在TAARendererFeature的AddRenderPasses()方法中实现,其中haltonIndex初始值为0:
// 获取Offset值
if(++haltonIndex >= max_SampleCount)
{
haltonIndex = 0;
}
haltonIndex = (haltonIndex + 1) & 1023;
Vector2 offset = new Vector2(
HaltonSeq(2, haltonIndex + 1) - 0.5f,
HaltonSeq(3, haltonIndex + 1) - 0.5f);
【偏题】采样在图形学中是十分常见的部分,随机数影响着样本的分布,我参考的文章中提到了这篇文章:低差异序列(一)- 常见序列的定义及性质,打开新世界大门,这里展示出来,也给自己码一下吧,有机会一定拜读。
Jitter视锥体
我们需要逐帧偏移采样点,这个offset需要发生在几何阶段之后的光栅化阶段,也就是屏幕映射之后。上述的“相机抖动”并不是偏移相机的位置,而是视锥中心动、基于视锥底部偏移一定的Offset,还原到世界空间就是下图:
所以说,我们改动的其实是Project矩阵,搬运其他大佬对偏移如何转化为修改矩阵的解释:
实现这个点,我们需要在TAARendererFeature中封装一个变换矩阵函数:
// 变换矩阵
private Matrix4x4 GetJitteredProjectionMatrix(Camera camera, Vector2 offset, Vector2 jitterIntensity)
{
Matrix4x4 originalProjMatrix = camera.nonJitteredProjectionMatrix;
float near = camera.nearClipPlane;
float far = camera.farClipPlane;
Vector2 matrixOffset = offset * new Vector2(1f / camera.pixelWidth, 1f / camera.pixelHeight) * jitterIntensity;
//[row, column]
originalProjMatrix[0, 2] = matrixOffset.x;
originalProjMatrix[1, 2] = matrixOffset.y;
return originalProjMatrix;
}
接下来就是在渲染场景前,通过CommandBuffer.SetViewProjectionMatrices修改相机的VP矩阵了,这部分在CameraSettingPass里实现,
// 修改用于渲染的VP矩阵
cmd.SetViewProjectionMatrices(cameraData.camera.worldToCameraMatrix, m_TAAData.jitteredProj);
这里的m_TAAData是额外的一个用于传递参数的类,既然这里涉及了,那也把TAAData的脚本展示一下:
脚本TAAData.cs
其中jitteredProj就是在TAARendererFeature中定义的,把变换矩阵传递给CameraSettingPass
public class TAAData
{
public Vector2 offset;
public Vector2 lastOffset; // 储存上一帧的Offset
public Matrix4x4 lastProj;
public Matrix4x4 lastView;
public Matrix4x4 jitteredProj;
public Matrix4x4 currentView;
public void Initialize()
{
offset = Vector2.zero;
lastOffset = Vector2.zero;
lastProj = Matrix4x4.identity;
lastView = Matrix4x4.identity;
jitteredProj = Matrix4x4.identity;
currentView = Matrix4x4.identity;
}
}
再把计算得到的Offset值、变换矩阵、传递给TAAData就行了,这个部分还需要结合接下来要说1.2 混合历史帧。
脚本CameraSettingPass.cs
至此可以展示一下整个CameraSettingPass的样子了:
public class CameraSettingPass : ScriptableRenderPass
{
// Profiling上显示
ProfilingSampler m_ProfilingSampler;
string m_ProfilerTag = "CameraSetting";
TAAData m_TAAData;
private TAARendererFeature.TAAData taaData;
internal CameraSettingPass()
{
renderPassEvent = RenderPassEvent.BeforeRenderingOpaques;
}
// 非RenderPass的重写函数,是我们自定义的,用以传递参数
// 这里传递的是TAAData
internal void Setup(TAAData data)
{
m_TAAData = data;
}
public override void Execute(ScriptableRenderContext context, ref RenderingData renderingData)
{
CommandBuffer cmd = CommandBufferPool.Get(m_ProfilerTag);
using (new ProfilingScope(cmd, m_ProfilingSampler))
{
context.ExecuteCommandBuffer(cmd);
cmd.Clear();
CameraData cameraData = renderingData.cameraData;
// 修改用于渲染的VP矩阵
cmd.SetViewProjectionMatrices(cameraData.camera.worldToCameraMatrix, taaData.jitteredProj);
}
// 执行
context.ExecuteCommandBuffer(cmd);
// 回收
CommandBufferPool.Release(cmd);
}
}
脚本TAARendererFeature.cs
1.2 历史帧混合
混合方式
已经实现了相机抖动,最终我们还需要将不同采样点渲染的画面混合,也就是混合N个历史帧。
那么采取什么样的混合方式呢?
最最简单的方法就是直接取均值,(第8帧+前7帧结果)/8,这样开销很大。换一种思路:取当前帧的结果与前一帧的结果按一定比例混合,有递归那味儿了!
那么如何实现?按什么比例?为什么能这样按比例混合?还是搬运其他大佬的解释:
这里混合系数对效果也是有影响的。
RT储存历史帧
为了储存历史帧,需要一张能长期使用的RT——Motion Vector RT,Motion Vector是一个RGHalf(或RGFloat)的双通道贴图,储存的是当前像素点与上一帧的区别。通过这个RT找到上一帧的当前像素信息,混合。
2 动态场景
静态场景直接supersampling就可以解决了,那动态场景涉及到两个方面,
- 摄像机移动
- 场景中物体移动
一旦画面有移动,场景中某点位置会发生变化。如果继续用原屏幕位置混合,会出现问题,这个时候怎么实现抗锯齿?
这牵扯到很多技术,我们一步一步来。
2.1 Reprojection
考虑镜头移动:
这里就要用到Reprojection方法:渲染当前帧(N位置)时需要乘以当前帧的VP矩阵的逆,再乘以上一帧(N-1位置)的VP矩阵,齐次除法变换到上一帧的裁剪空间,就知道当前帧的N位置(UV)在上一帧画面中的位置(lastUV)了。这一步体现在我们最后的TAAShader的fragment shader里:
// Reprojeciton
float4 worldPos = mul(UNITY_MATRIX_I_VP, positionNDC);
worldPos /= worldPos.w;
float4 lastPositionCS = mul(_LastViewProj, worldPos);
float2 lastUV = lastPositionCS.xy / lastPositionCS.w;
lastUV = lastUV * 0.5 + 0.5;
消除Jitter影响
还需要还原抖动,不然画面会模糊,这时TAAData里储存的lastOffset就派上用场啦!如下(直接复制的格式乱套了orz):
float2 sampleUV = input.texcoord;
float2 currentOffset = _TAAOffsets.xy; // 上一帧的Offset
float2 lastOffset = _TAAOffsets.zw; // 当前帧Offset
float2 unJitteredUV = sampleUV - 0.5 * currentOffset; // 还原Offset
...
// 采样当前深度贴图
float depthTexture = _CameraDepthTexture.SampleLevel(sampler_PointClamp, unJitteredUV, 0).r;
float4 positionNDC = float4(sampleUV * 2 - 1, depthTexture, 1);
#if UNITY_UV_STARTS_AT_TOP
positionNDC.y = -positionNDC.y;
#endif
// Reprojeciton
float4 worldPos = mul(UNITY_MATRIX_I_VP, positionNDC);
worldPos /= worldPos.w;
float4 lastPositionCS = mul(_LastViewProj, worldPos);
float2 lastUV = lastPositionCS.xy / lastPositionCS.w;
lastUV = lastUV * 0.5 + 0.5;
// 用当前帧在上一帧(累积帧)的位置采样累积帧画面
float3 accumTexture = _AccumTexture.SampleLevel(sampler_LinearClamp, lastUV, 0).rgb;
但是这有个问题,,只是简单的使用上一帧的VP矩阵进行reprojection,仅适用于静态场景下的动态摄像机。对于动态场景下的动态摄像机该怎么办?
2.2 Neighborhood Clipping
镜头移动还要考虑一种情况:遮挡问题,如果不考虑遮挡,会出现残影:
下图解释了这个现象出现的原因:
由于我们直接混合了历史帧,导致上一帧被遮挡的东西这一帧突然出现,或者这一帧本来应该有的东西被遮挡。
解决这一问题,基于邻近像素色彩的 Neighborhood Clamping 是目前比较主流的 TAA 历史帧约束方案:就是限制历史采样的颜色范围,把历史帧采样结果clamp到一个范围(AABB给它包围起来)。
进一步优化:NIVIDA又提出了更好的方法,Variance clipping,缩小了AABB的尺寸。具体方法详见DX12渲染管线(2) - 时间性抗锯齿(TAA)和在 Unity SRP 实现 Temporal Anti-aliasing,理论方面不太想赘述了,,直接上代码:
float3 clip_aabb(float3 aabb_min, float3 aabb_max, float3 avg, float3 input_texel)
{
// clip to center:
float3 p_clip = 0.5 * (aabb_max + aabb_min);
float3 e_clip = 0.5 * (aabb_max - aabb_min) + FLT_EPS;
float3 v_clip = input_texel - p_clip;
float3 v_unit = v_clip / e_clip;
float3 a_unit = abs(v_unit);
float ma_unit = max(a_unit.x, max(a_unit.y, a_unit.z));
if (ma_unit > 1.0){
return p_clip + v_clip / ma_unit;
} else{
return input_texel; // 在AABB里
}
}
Variance clipping:
参考了DX12渲染管线(2) - 时间性抗锯齿(TAA)的思路:
// Variance clip
float3 m1 = 0, m2 = 0;
for(int k=0; k<9; k++) {
float3 c = _MainTex.Sample(sampler_PointClamp, unJitteredUV, kOffsets3x3[k]);
m1 += c;
m2 += c * c;
}
float3 mu = m1 / 9;
// 估算的 sigma
// 关于正确的sigma可以参考:https://gist.github.com/BlurryLight/145131dbacac34345908c529a3488e8f
float3 sigma = sqrt(abs(m2 / 9 - mu * mu));
#define VarianceClipGamma 1.0F
float3 minc = mu - VarianceClipGamma * sigma;
float3 maxc = mu + VarianceClipGamma * sigma;
prevColor = ClipAABB(minc, maxc, prevColor, mu);
其中,
float du = _TextureSize.z;
float dv = _TextureSize.w;
float2 kOffsets3x3[9] =
{
float2(-du, -dv),
float2(0, -dv),
float2(du, -dv),
float2(-du, 0),
float2(0, 0),
float2(du, 0),
float2(-du, dv),
float2(0, dv),
float2(du, dv)
}
2.3 Fluckering 高光闪烁问题
镜头不动的时候,会有高光(高频着色区域)闪烁问题。
这个问题其实我也只是复述了各大文章里提到的,其实自己并没有真的看到过,计划给他实现之后看看能不能贴个闪烁的图出来吧。
参考
大佬文章
在Unity SRP中实现TAA效果 | ZZNEWCLEAR13
在 Unity SRP 实现 Temporal Anti-aliasing - 知乎 (zhihu.com)
Unity Temporal AA的改进与提高 - 知乎 (zhihu.com)
Unity TAA实现杂记 | Blurred code
Raphael2048/AntiAliasing (github.com)
DX12渲染管线(2) - 时间性抗锯齿(TAA) - 知乎 (zhihu.com)
处理方案
EPIC:TAA
在SIGGRAPH2014上分享了UE4的TAA抗锯齿技术:
High Quality Temporal Supersampling
NIVIDA:TXAA
GDC2016上分享了TXAA,是优化版的TAA吧,解决了一些TAA
Slide 1 (nvidia.cn)
PLAYDEAD
GDC Vault - Temporal Reprojection Anti-Aliasing in INSIDE文章来源:https://www.toymoban.com/news/detail-497721.html
PlayDead提供了TAA源码文章来源地址https://www.toymoban.com/news/detail-497721.html
到了这里,关于【Unity SRP】实现基础的Temporal AA(未完)的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!