思路
SSAO每一帧都将场景视图空间的最近可视点的Normal ,Depth渲染到全屏render target上。然后将render target作为输入计算屏幕上每个像素对应的环境光遮蔽。
渲染Normal , Depth
创建一张纹理贴图,将其作为RenderTarget格式为DXGI_FORAMT_R16G16B16A16_FLOAT
RGB用于保存视图空间中的最近可视点的法线坐标。alpha通道用于保存最近可视点的深度值。
//--------------------Vertex Shader--------------------
cbuffer Transform
{
float4x4 WorldViewProj;
float4x4 WorldView;
float4x4 WorldInvTransposeView;
};
struct VertexIn
{
float3 PosL : POSITION;
float3 Normal : NORMAL;
};
struct VertexOut
{
float4 PosH : SV_POSITION;
float3 PosV : POSITION;
float3 NormalV : NORMAL;
};
VertexOut main(VertexIn input)
{
VertexOut output;
output.PosH = mul(float4(input.PosL , 1.0f) , WorldViewProj);
output.PosV = mul(float4(input.PosL , 1.0f) , WorldView).xyz;
output.NormalV = mul(input.Normal , (float3x3)WorldInvTransposeView);
return output;
}
//-----------------Pixel Shader------------------
float4 main(VertexOut input) : SV_TARGET
{
input.NormalV = normalize(input.NormalV);
return float4(input.NormalV , input.PosV.z);
}
现在我们已经得到了最近可视点在视图空间的法线和深度值,接下来就是计算屏幕上每个像素的遮蔽值,生成一张纹理(上面记录了各像素的遮蔽值)
Ambient Occlusion
这一步我们关闭深度缓存,这一步只是生成屏幕上各像素的遮蔽值,将其填充到纹理中。由于我们只是要计算屏幕上各像素的遮蔽值,因此我们绘制一个全屏方块并调用SSAO shader,生成的纹理我们通常称之为SSAO map
重现view space坐标
那么我们应该如何计算各像素的遮蔽值呢?
计算某点的遮蔽值,需要从该点发出一系列光线,从而计算遮蔽值。因此我们需要将屏幕上的各像素还原到View Space,然后在View Space空间中向各像素随机发射射线。
因此我们首先需要考虑的是如何将各像素还原到View Space。
看下图所示:
p=pzzfarv
, 点
p
即像素点在View Space对应的点,在上一步中我们已经储存了其在View Space中的深度值,即图中的
我们可以通过插值得到
v→
的值,由于我们是通过绘制全屏块调用该ssao shader来实现计算ambient occlusion,屏幕块的四个顶点分别对应于far plane的四个顶点,那么也就能得到eye到far plane四个顶点的向量。那么我们可以将view space中,eye到far plane的四个顶点的向量作为constant buffer传入vertex shader中。在vertex shader为每个顶点都保存一份eye到远截面对应顶点的向量。在vertex shader自动插值计算屏幕块的其他像素时,每个像素都将自动插值计算出相应的
v
如下:
//--------------Vertex Shader--------------------
cbuffer EyeToCorner
{
float4 FrustumCorners[4];
};
struct VertexIn
{
float3 PosL : POSITION;
float3 ToFarPlaneIndex : NORMAL;
float2 Tex : TEXCOORD;
}
struct VertexOut
{
float4 PosH : SV_POSITION;
float3 ToFarPlane : TEXCOORD0;
float2 Tex : TEXCOORD1;
};
VertexOut main(VertexIn input)
{
VertexOut output;
// 传入的PosL坐标是NDC空间的
output.PosH = float4(input.PosL , 1.0f);
output.ToFarPlane = FrustumCorners[input.ToFarPlaneIndex.x];
output.Tex = input.Tex;
return output;
}
目前为止,我们已经可以将每个像素还原到View Space。
遮蔽测试
接下来,我们需要讨论是:从该点发出一系列射线,然后判断哪些被遮蔽了,从而计算遮蔽值。
这步类似于半球内的随机光线投射,我们从点q向某一方向以指定遮蔽半径随机采采样,总共采样N个点,如图中的
接下来我们要判断采样点
q
是否被遮蔽了。
由于点
判断
|pz−rz| :当该值大于指定的最大遮蔽距离时,点 r 无法对p 产生遮蔽 , 并且遮蔽效果随着距离的增大而减小。当该值过于小时,我们假定点 q 与点p 位于同一平面上,则 q 无法对p 产生遮蔽。- n→ 与 r−p 向量的夹角:我们可以通过公式来衡量: max(n→⋅r−p|r−p|,0) , 这可以避免自遮蔽
该图说明了为何可以避免自遮蔽:
若 r 与p 在同一个面上时, r−p 与 n→ 的夹角为 90∘ ,当大于 90∘ 时, r 在点p 的后方,无法对点 p <script id="MathJax-Element-37" type="math/tex">p</script>产生遮蔽。Blur
由于我们采样数的限制,图像会出现噪声。
我们可以将SSAO Map进行模糊处理。