SSAO也就是屏幕空间的环境光遮蔽,是实时渲染中为了模拟环境光遮蔽效果采取的一种近似算法。它主要表现的是物体自遮挡部分产生的阴影,可以增加场景的明暗层次感。
这个效果我在一年前已经看过了相关资料,不过一直没有尝试实现。最近花了点时间模拟了一下,不过效果不算太好。此处只是分享一下我的实现。
基本原理
上图来自real-time rendering。
首先,ssao是一个屏幕空间算法,此时,我们针对屏幕上的每个像素进行运算,并且可以知道每个像素的法线、深度等信息。
对于屏幕上的一个像素(如图中黄点),我们首先利用深度信息计算出它的世界坐标,并在它的法向半球(图中显示的是球体,不过在知道法线的情况下,使用法向半球的效果会更好)中随机选取一定数量的采样点。之后比较采样点的深度和当前点的深度,其中图中绿点为深度较小的采样点,而红点为深度较大的采样点。我们根据这两者的比例来确定当前的环境光遮蔽。
对于距离当前点越近的采样点,它对环境光遮蔽的贡献也就越多。
总体而言,这个算法比较简单,就是采样——比较深度——计算权重。和各种光照算法比起来,没有那么多乱七八糟的公式。
具体实现
采样点选取
我们可以先用预处理的方式,在以原点为中心,法向垂直向上的单位半球内,选取一定数量的随机采样点(比如16/32个)。同时计算出该点到原点的距离dist,以1-dist作为该采样点的贡献权重。
预计算好采样点的切线空间位置和权重后,我们将其作为常量直接记录在shader脚本中即可。
构造TBN矩阵
由于我们预先生成的随机采样点是位于切线空间的,为了将其转换到其它空间,我们首先需要构造TBN矩阵。
目前我记录下来的法线是世界空间的法线,因此将直接转换到世界坐标。
和法线贴图沿uv方向的切线不同,此处的切线我们可以在切线平面任取两条垂直的。所以此处我直接设定x,y为定值,根据点乘为0计算出z的坐标,从而取得其中一条切线:
vec3 N = normal;
vec3 T;
if(N.z != 0)
{
T = normalize(vec3(1,1,-(N.x + N.y) / N.z));
}
else if(N.y != 0)
{
T = normalize(vec3(1,1,-(N.x + N.z) / N.y));
}
else if(N.x != 0)
{
T = normalize(vec3(1,1,-(N.x + N.z) / N.x));
}
vec3 B = cross(N, T);
mat3 TBN = mat3(T,B,N);
获取采样点对应的屏幕坐标
为了获取采样点的深度信息,我们首先需要求出它的世界坐标,然后再计算出对应的纹理坐标,以进行深度信息的采样。
对所有采样点进行处理,首先需要一个循环:
int kernelSize = 32;
float occlusion = 0.0;
for(int i = 0;i < kernelSize; i++)
{
// ...
之后,先将随机向量从切线空间转换到世界空间,然后加上当前位置。其中samples是随机向量,weights是对应的权重。此处默认的采样半径为1。
vec3 pos = TBN * (samples[i] * weights[i]);
pos = worldPos + pos;
接下来,将其从世界空间转换为屏幕坐标,并计算对应的uv坐标。具体的做法是,先分别乘以视图矩阵和投影矩阵,再将分布在[-1,1]的屏幕坐标映射到[0,1],作为纹理坐标。
vec4 tmp = ViewMatrix * vec4(pos, 1);
tmp = ProjectMatrix * tmp;
vec3 screenPos = tmp.xyz / tmp.w; // [-1,1]
vec2 uv = (screenPos.xy + 1) / 2;
最后,根据纹理坐标获取采样点的深度,并进行深度比较。注意OpenGL中相机前的深度为负数,此处为了将深度记录在纹理中,进行了取反的操作,因此此时离相机越进,“深度值”会越小。
float sampleDepth = texture(NormalAndDepth, uv).w;
occlusion += depth - eps < sampleDepth? 0.0 : 1.0;
求得最后的遮蔽系数,和阴影系数一起影响最终的像素着色:
occlusion /= count;
fKO = 1.0 - occlusion;
(素材均来自unreal! )


目前来说,效果比较一般,ssao效果做的不好看起来就是让画面变暗了,比较理想的状态还是能够明显地增加画面的层次感。