Unity实现2D动态光照

关于Deferred light / Forward light

了解3d游戏中光照的人,应该很熟悉deferred和forward这两种不同的实现方式。

简而言之,deferred light是以这种方式绘制的:

  1. 对每一个场景中的Mesh
    1. 将其法线绘制到法线贴图上
    2. 将其颜色绘制到颜色贴图上
    3. 将其深度绘制到深度贴图上
  2. 对每一个灯光,对三张贴图进行采样,绘制到屏幕上。

而forward light是以这种方式绘制的:

  1. 对每一个场景中的Mesh,对每一个灯光, 将其绘制到屏幕上

最直接的差别是,对于数量为M的Mesh,数量为L的光源而言,deferred light的draw call次数为O(M + L),而forward light 为O(ML)

在2d光照中也可以用同样的概念去理解,可以用deferred及forward两种不同的方式去实现。

我最终选择了deferred的方式去实现,像这样:

  1. 对每一个光源,如果没有被剔除(在摄像机外),则将其光照绘制到一个等同屏幕比例的光照贴图上。
  2. 在绘制场景完中每一个精灵(Sprite)/粒子/骨骼动画以后,将光照贴图以一个quad mesh的方式绘制到屏幕上,使用相乘的blend方式。

这样可以保证我可以方便地在任意一个已开发到一定复杂度的游戏中加入这个光照系统,而无需改动场景中原来任意Renderer的绘制Shader。

同时为了光照能够让场景中的物体呈现不同的细节,我们可以很方便地加入法线贴图,具体可以参考这篇文章

硬阴影

两年以前,我实现了一个只有硬光源的简陋光照系统。

那个时候,我主要受到这篇文章的启发,学习到如何用线性及二分的Raycast来获得周围遮挡体的轮廓和边缘。

不过我的思路也局限于此,当时完全想不出如何绘制一个过渡足够平滑的阴影边缘。

那个时候,在将光源绘制到光照贴图这一步上,我是这么做的(只考虑点光源):

  1. 均匀地用Raycast遍历光源周围,对突变(两条射线的终点不是同一个碰撞体或是法线的差距很大)的地方进行二分,得到在极坐标上的遮挡点信息。
  2. 生成一个光照Mesh。例如,一个没有任何遮挡的点光源会生成一个近似圆形的Mesh:

https://pic2.zhimg.com/80/v2-81bfe58965df3c5b3e48be4442bfd409_hd.jpg


而有遮挡的光源会生成一个残缺的Mesh:

https://pic4.zhimg.com/80/v2-244f0629eba5957c90a2f0843be8b993_hd.jpg


上图中NMLK点与GFED等点本质上并没有什么不同,只不过NMLK在Raycast中击中了实在的碰撞体,而GFED在达到光源范围最远处时击中了“假想碰撞体”。

因为光源的强度会随距离衰减,我们为光照Mesh中不同的顶点赋值不同的颜色值使之中心最亮,边缘最暗(2d中的光源,线性衰减效果已经足够好)。

其中获取周围遮挡点的实现可以参考:

public class CircleHitPoint {

    public float radius;

    public LayerMask colliderLayer;

    public float binaryMaxDegree = 5;

    public int rayCount;

    public Vector2 center;

    public struct HitInfo {

        public RaycastHit2D hit2D;

        public float angle;

 

        public HitInfo(RaycastHit2D hit2D, float angle)

        {

            this.hit2D = hit2D;

            this.angle = angle;

        }

        public Vector2 Position(Vector2 center, float radius) {

            if(hit2D) {

                return hit2D.point;

            }

            else {

                return center + CircleHitPoint.Degree2Dir(angle) * radius;

            }

        }

    }

 

    private static Vector2 Degree2Dir(float degree) {

        float rayRad = Mathf.Deg2Rad * degree;

        Vector2 dir = new Vector2(Mathf.Cos(rayRad), Mathf.Sin(rayRad));

        return dir;

    }

    private RaycastHit2D AngleRayCast(float angle) {

        var rayDir = Degree2Dir(angle);

        var hit = Physics2D.Raycast(center, rayDir, radius, colliderLayer);

        return hit;

    }

    public Vector2 Position(HitInfo info) {

        return info.Position(center, radius);

    }

    public float NormedHitRadius(HitInfo info) {

        return Mathf.Clamp01((Position(info) - center).magnitude / radius);

    }

    private IEnumerable<HitInfo> BinaryFindEdgeAndReturnPoint(HitInfo info1, HitInfo info2) {

        if(rayCount < 3) rayCount = 3;

        Func<RaycastHit2D, RaycastHit2D, bool> hitSame = (hit1, hit2) => {

            if(!hit1 && !hit2) {

                return true;

            }

            else if(hit1 ^ hit2) {

                return false;

            }

            else {

                return hit1.collider == hit2.collider;

            }

        };

        Func<RaycastHit2D, RaycastHit2D, bool> normalSame = (hit1, hit2) => {

 

            return (!hit1 && !hit2) || Mathf.Approximately((hit1.normal - hit2.normal).magnitude, 0);

        };

        if((hitSame(info1.hit2D, info2.hit2D) && normalSame(info1.hit2D, info2.hit2D))

            || info2.angle - info1.angle < binaryMaxDegree) {

            yield return new HitInfo(info2.hit2D, info2.angle);

            yield break;

        }

        var midDegree = (info1.angle + info2.angle) / 2;

        var midHit = AngleRayCast(midDegree);

        var midHitInfo = new HitInfo(midHit, midDegree);

        foreach(var hitInfo in BinaryFindEdgeAndReturnPoint(info1, midHitInfo)) {

            yield return hitInfo;

        }

        foreach(var hitInfo in BinaryFindEdgeAndReturnPoint(midHitInfo, info2)) {

            yield return hitInfo;

        }

    }

    //返回每个遮挡点

    public IEnumerable<HitInfo> RaycastPoints() {

        float deltaDegree = 360.0f / (float) rayCount;   

        float lastDegree = 0;

        RaycastHit2D lastHit = new RaycastHit2D();

        for(int i = 0; i < rayCount + 1; i++) {

            float rayDegree = deltaDegree * i;

            var hit = AngleRayCast(rayDegree);

            if(i > 0) {

                var lastHitInfo = new HitInfo(lastHit, lastDegree);

                var currentHitInfo = new HitInfo(hit, rayDegree);

                var hitInfos = BinaryFindEdgeAndReturnPoint(lastHitInfo, currentHitInfo);

                foreach(var hitInfo in hifInfos) {

                    yield return hitInfo;

                }

            }

            else {

                yield return new HitInfo(hit, rayDegree);

            }

            lastHit = hit;

            lastDegree = rayDegree;

 

        }

    }

}

这种方式用来做硬阴影的效果非常好,也很简单,我一度觉得这是最终的解决方案。

在后续实现软阴影的时候,我没有放弃这个做法,而是在绘制完整个光照贴图以后,对光照贴图做了一次高斯模糊(其实更好的做法是对每个光源绘制的光照进行光照朝向的法线模糊)。

然而高斯模糊的开销非常大,导致游戏在一些对后处理支持的不是很好的平台上奇慢无比(之前在开发的一个采用模糊的方式来实现软阴影的游戏在我的Macbook Pro上只有20FPS)。

这使我回过头来思考:对于2d遮挡的软阴影,有没有更好更快的实现方式?

之后我看到了http://GameDev.net上的这篇文章,让我一拍脑袋。原来没有必要一次性将光照画出来,而是可以分为几步:

  1. Clear阴影贴图(一张单通道的,等同屏幕比例的贴图)
  2. 对每个光源:
    1. 绘制该光源造成的阴影到阴影贴图上
    2. 将光源绘制到光照贴图上(同时对阴影贴图进行采样)

原文中,所谓的阴影贴图即是光照贴图的Alpha通道,然而我在unity中做不到只Clear一张贴图的Alpha通道,所以我选择创建一张只有R通道的贴图作为阴影贴图。

我从中还得到的一个提示是:每个阴影区块的绘制,是以遮挡体(Shadow hull)的一条边为单位的。

什么意思?举个例子,假设我要绘制一条边AB的硬阴影,我生成这样一张阴影Mesh:

https://pic2.zhimg.com/80/v2-7759d550887f68ccf65d4d28f92bf585_hd.jpg

其中DEAB的平行线,圆的半径是光源的最大衰减距离(该距离外不绘制光照)。原文中的做法是将DE边投射得足够远直至大于屏幕宽度,而我这边的做法是将其投射至光源最大衰减距离处,也就是说DE是该圆的切线。

具体的Mesh生成代码如下:

void UpdateShadowMesh() {

    if(shadowMesh == null) shadowMesh = new Mesh();

    shadowMesh.MarkDynamic();

    shadowMesh.Clear();

    List<Vector3> vertices = new List<Vector3>();

    List<int> triangles = new List<int>();

    CircleHitPoint.HitInfo? previous = null;

    foreach(var current in circleHitPoint.RaycastPoints()) {

        if(!current.hit2D) {

            previous = null;

        }

        else {

            if(previous != null) {

                // Consume previous is A, current is B

                if(previous.Value.hit2D.collider == current.hit2D.collider) {

                    Vector2 A = circleHitPoint.Position(previous.Value);

                    Vector2 B = circleHitPoint.Position(current);

                    Vector2 C = circleHitPoint.center;

                    Vector2 AB = B - A;

                    Vector2 normal = new Vector2(AB.y, -AB.x).normalized;

                    Vector2 CA = A - C;

                    float dis = Vector2.Dot(CA, normal);

                    float scale = circleHitPoint.radius / dis;

                    Func<Vector2, Vector2> project = v2 => (v2 - C) * scale + C;

                    triangles.Add(vertices.Count + 0);

                    triangles.Add(vertices.Count + 3);

                    triangles.Add(vertices.Count + 2);

                    triangles.Add(vertices.Count + 0);

                    triangles.Add(vertices.Count + 1);

                    triangles.Add(vertices.Count + 3);

                    vertices.Add(WorldV2ToLocalV3(A));

                    vertices.Add(WorldV2ToLocalV3(B));

                    vertices.Add(WorldV2ToLocalV3(project(A)));

                    vertices.Add(WorldV2ToLocalV3(project(B)));

                }

            }

            previous = current;

        }

    }

    shadowMesh.SetVertices(vertices);

    shadowMesh.SetTriangles(triangles, 0);

}

代码中的数学计算很简单,参照图示应该很好理解。

在绘制光源时对阴影贴图采样,令光照值和阴影值相乘,绘制到光照贴图上。

由于我们不再通过Mesh顶点的颜色来传递光照距离缩减,我们每个光源可以用一张简单的quad mesh来绘制,而光照距离衰减在fragment shader中解决。

点光源的fragment shader是这样的:

float4 frag(v2f IN) : COLOR

{

    float2 dir = IN.world - _LightPos;

    float norm = length(dir) / _LightMaxDis;

    norm = saturate(norm);

    float4 c = float4(_LightColor.xyz * smoothstep(0, 1, (1 - norm)), 1);

    c.xyz *= 1 - tex2D(_ShadowMap, IN.screen.xy).r;

    return c;

}

阴影贴图是反色绘制的(阴影处是白,非阴影处是黑,这样可以简单地Blend add),所以在采样相乘的时候需要1 - c.r来反色回去。而光照距离衰减我用了一个smoothstep函数使之更加平滑。

软阴影

在着手如何实现软阴影之前,我们先来讨论一下,软阴影是什么?

我们总是光源抽象成一个没有体积的点光源。对场景中任意一点,如果该点与光源之间没有遮挡,该点亮度为0,否则为1,如下图:

https://pic2.zhimg.com/80/v2-012b691c4992bbff413c62f106d63581_hd.jpg

 

然而现实生活中不存在绝对理想的点光源,光源是有体积的。一点E的亮度是光源体积上所有与E无遮挡的点带给它的亮度的积分,如下图:

https://pic3.zhimg.com/80/v2-349b4d22187f9c218ae0d1a75b23ee6e_hd.jpg

 

当光源有了体积以后,如上图所示,在遮挡体的边缘处,会出现亮度在0到1之间,过渡平滑的半影区域。

那么,在绘制阴影贴图的时候,我们似乎可以完全将半影和全影分开来绘制,如下图所示:

https://pic2.zhimg.com/80/v2-2dadacf03a7df440e8bec3bff3363c59_hd.jpg

 

图中AAiAoBBoBi为半影区域,ABBiAi为全影区域,除此之外的区域一定是被整个光源照亮的(相对遮挡边缘AB而言)。

http://GameDev.net那篇文章给出的方案是,用一张半影贴图来绘制半影区域:

https://pic3.zhimg.com/80/v2-bedb660ccdf767626eb28c026e137aca_hd.jpg

 

那么我们在绘制这张Mesh的时候可以使用如下的uv坐标来采样半影贴图:

https://pic3.zhimg.com/80/v2-2dca632bb0396b6f04cb0c9fc2f83972_hd.jpg

 

这样可以一次性将半影与全影一起绘制,效果也非常好。

但是我在实践过程中发现,当AB中某一点离光源过近,同时AB的角度比较刁钻的时候,这张阴影Mesh会出现严重的变形:

https://pic2.zhimg.com/80/v2-2866d172a1399ef6c87f32d13c934719_hd.jpg

 

原因很简单,此时不再存在什么全影区域,B点的半影区域将整个ABA的半影区域完全笼罩了。即使我们修正这个扭曲的Mesh,我们只绘制B及只绘制A的半影区域,或是都绘制,结果也是错误的。采样半影贴图在这个场景下永远无法正确地绘制阴影。

这让我萌生了一个想法:能不能只用Mesh表示最小阴影区域,而在fragment shader中计算实际的亮度?

遮挡值计算

由于阴影绘制只是以一条遮挡边AB为基本单位,在shader中计算遮挡变得不是那么遥不可及。

我们在计算遮挡时需要如下几条信息:

  • A点位置
  • B点位置
  • 光源位置
  • 当前绘制片段的世界位置
  • 光源的体积半径(我们假设所有体积光源都是球光源/圆光源)

我们在绘制阴影时叠加的是遮挡值,而非亮度值,完全被遮挡时遮挡值为1,完全不被遮挡时遮挡值为0。(亮度值= 1 - 遮挡值)。

我们不需要追求完全拟真的遮挡计算,在实践中,可以将遮挡值近似为(被遮挡的角度/光照总角度),如下图

https://pic2.zhimg.com/80/v2-74a0d029b0b94fa18c53c9df3fda66dd_hd.jpg

 

此处的遮挡值为AEB/FEG = α / β = 8.5 / 27 = 0.3148

由于在此场景下,求过点E的圆C的两条切线EFEG是十分昂贵的计算,我们还可以对光照角度的两条边进行近似:

https://pic2.zhimg.com/80/v2-d565209dca890bb426532edbdab00825_hd.jpg

 

此处光照角度为FEGFG为与CE垂直的直径。

计算遮挡值也很简单,我们设EGEF边中其中一个为起始边,一个为终结边,在其之间的点的角度值标准化为[0, 1]之间的一个数。那么:

https://pic1.zhimg.com/80/v2-62b28d5d0cc7ed06d703ab1a5e04779c_hd.jpg

 

注意在计算时,若EP向量在EG向量的逆时针方向,PEG是负值。

问题在于,到底哪条该当作起点,这是不能随意定的。

为什么?我们来继续往下看。

这是我在shader中计算向量夹角的函数:

// [-180, 180]

float dirAngle(float2 v) {

    float angle = atan2(v.y, v.x);

    angle = degrees(angle);

    return angle;

}

// [-360, 360] norm to [-180, 180]

float normAngle(float angle) {

    angle = angle - step(180, angle) * 360;

    angle = angle + step(angle, -180) * 360;

    return angle;

}

// [-180, 180]

float dirBetweenAngle(float2 v1, float2 v2) {

    return normAngle(dirAngle(v1) - dirAngle(v2));

}

注意,返回夹角的函数返回的是一个绝对值在180°以内,带符号的角度(以顺时针为正方向)。

假设我们全部片段将EG当作起始边计算遮挡值。

https://pic2.zhimg.com/80/v2-dca8e522d5e82ae29a4d5c13470339c9_hd.jpg

 

https://pic2.zhimg.com/80/v2-4d796b235624b0ef7a1b12f3949dd241_hd.jpg

 

如上图所示,当AB横跨过EG边的两种情况时,计算的遮挡值必然是正确的。

但是若AB不横跨EG,同时EA向量相对EG向量在逆时针方向时,计算的遮挡值将会是错误的,如下:

https://pic1.zhimg.com/80/v2-51775dc55e6636c9e31cfc986deaa160_hd.jpg

 

在上图中,A在我们设想中应该遮挡掉FEB部分的光照,但是由于我们的角度计算方式,取了角度小于180度的那一边,A点的值在clamp前是一个负值,导致其计算结果是遮挡掉了BEG部分的光照。

解决这个错误的方式是:

  • 判断AB是否横跨EG边(边EG是否在AEB内)
  • 若横跨了,则以EG为起始边
  • 若未横跨,则以EF为起始边

在fragment shader中计算遮挡值的最终代码如下:

// [-180, 180]

float dirAngle(float2 v) {

    float angle = atan2(v.y, v.x);

    angle = degrees(angle);

    return angle;

}

// [-360, 360] norm to [-180, 180]

float normAngle(float angle) {

    angle = angle - step(180, angle) * 360;

    angle = angle + step(angle, -180) * 360;

    return angle;

}

// [-180, 180]

float dirBetweenAngle(float2 v1, float2 v2) {

    return normAngle(dirAngle(v1) - dirAngle(v2));

}

float2 _LightPos;

float _LightVolumeRadius;

float4 frag(v2f IN) : COLOR

{

    float2 CE = IN.E - _LightPos;                

    // CE的法线

    float2 CENorm = normalize(float2(-CE.y, CE.x)) * _LightVolumeRadius;

    float2 dirF = (_LightPos - CENorm) - IN.E;

    float2 dirG = (_LightPos + CENorm) - IN.E;

    float2 dirA = IN.A - IN.E;

    float2 dirB = IN.B - IN.E;

    float full = dirBetweenAngle(dirF, dirG);

    // EAEB顺时针端,为1,否则为0

    float ABiggerThanB = step(0, dirBetweenAngle(dirA, dirB));

    //顺时针端的边

    float2 dirCW = ABiggerThanB * (dirA - dirB) + dirB;

    //偏逆时针端的边

    float2 dirCCW = dirA + dirB - dirCW;

    //AB跨过EG,为1,否则为0

    float crossG = step(0, dirBetweenAngle(dirG, dirCCW)) * step(0, dirBetweenAngle(dirCW, dirG));

    float sign = crossG * 2 - 1;

    float2 startingEdge = dirF + (dirG - dirF) * crossG;

    // saturate(x) <=> clamp(x, 0, 1)

    float valueCW = saturate(sign * dirBetweenAngle(dirCW, startingEdge) / full);

    float valueCCW = saturate(sign * dirBetweenAngle(dirCCW, startingEdge) / full);

    float occlusion = abs(valueCW - valueCCW);

    return occlusion;

}

大家知道我们要尽量避免在shader代码中使用条件语句,所以我用了step函数来代替条件判断。

现在,我们真的可以较为真实地计算一条边的遮挡了。

最小阴影Mesh

解决了如何在shader中计算遮挡,我们还要考虑如何绘制一个最小的、简单的、不重叠的阴影Mesh。

在大多数情况下,我们可以简单地绘制两个三角形:

https://pic2.zhimg.com/80/v2-731dc00f7049111f9210a01c77e51075_hd.jpg

 

由于我们不再需要区分半影与全影区域,我们只需要AoBo点,不再需要AiBi点。其中CBoCAo也进行了与遮挡计算shader一致的近似。

在前面讨论过的,还需考虑B点或A点的半影盖住另一点的半影,全影部分消失的情况。

https://pic3.zhimg.com/80/v2-52ceb9d821c78cf8fbb46c3a17614256_hd.jpg

 

这个时候我们甚至不用画两个三角形,只需要画一个三角形就够了。

我们先要考虑一下,这种情况出现的条件是什么?

此时ABBiBo三角形的内部,或者说,ABBi边的下方。

BiB向量顺时针90度的法线是BiBNormal,那么这种情况出现的条件是Dot(BiBNormal, AB) > 0

将此处的A与B交换的情况也是一样的,在这里就不再复述。

生成最小阴影Mesh的代码如下

List<Vector3> vertices = new List<Vector3>();

List<Vector2> apos = new List<Vector2>();

List<Vector2> bpos = new List<Vector2>();

List<int> triangles = new List<int>();

foreach(var edge in circleHitPoint.ExtractEdge()) {

    Vector2 A = edge.A;

    Vector2 B = edge.B;

    Vector2 C = circleHitPoint.center;

    Func<Vector2, Vector2, Vector2> normal = (c, p) => {

        Vector2 dir = p - c;

        return new Vector2(-dir.y, dir.x).normalized;

    };

    Vector2 ABnormal = -normal(A, B);

    Vector2 CAO = normal(C, A) * volumeRadius + C;

    Vector2 CBO = -normal(C, B) * volumeRadius + C;

    Func<Vector2, Vector2, Vector2, Vector2> project = (n, origin, point) => {

        float disToPoint = Vector2.Dot(origin - point, n);

        disToPoint = Mathf.Abs(disToPoint);

        float delta = circleHitPoint.radius - disToPoint;

        delta = Mathf.Max(0, delta);

        float scale = (delta + disToPoint) / disToPoint;

        return (point - origin) * scale + origin;

    };

    if(Vector2.Dot((B - A), normal(A, CAO)) >= 0) {

        Vector2 CBI = normal(C, B) * volumeRadius + C;

        triangles.Add(vertices.Count + 0);

        triangles.Add(vertices.Count + 2);

        triangles.Add(vertices.Count + 1);

        vertices.Add(WorldV2ToLocalV3(B));

        apos.Add(A);

        bpos.Add(B);

        vertices.Add(WorldV2ToLocalV3(project((B - C).normalized, CBI, B)));

        apos.Add(A);

        bpos.Add(B);

        vertices.Add(WorldV2ToLocalV3(project((B - C).normalized, CBO, B)));

        apos.Add(A);

        bpos.Add(B);

    }

    else if(Vector2.Dot((A - B), normal(CBO, B)) >= 0) {

        Vector2 CAI = -normal(C, A) * volumeRadius + C;

        triangles.Add(vertices.Count + 0);

        triangles.Add(vertices.Count + 2);

        triangles.Add(vertices.Count + 1);

        vertices.Add(WorldV2ToLocalV3(A));

        apos.Add(A);

        bpos.Add(B);

        vertices.Add(WorldV2ToLocalV3(project((A - C).normalized, CAO, A)));

        apos.Add(A);

        bpos.Add(B);

        vertices.Add(WorldV2ToLocalV3(project((A - C).normalized, CAI, A)));

        apos.Add(A);

        bpos.Add(B);

    }

    else {

        triangles.Add(vertices.Count + 0);

        triangles.Add(vertices.Count + 1);

        triangles.Add(vertices.Count + 3);

        triangles.Add(vertices.Count + 0);

        triangles.Add(vertices.Count + 3);

        triangles.Add(vertices.Count + 2);

        vertices.Add(WorldV2ToLocalV3(A));

        apos.Add(A);

        bpos.Add(B);

        vertices.Add(WorldV2ToLocalV3(B));

        apos.Add(A);

        bpos.Add(B);

        vertices.Add(WorldV2ToLocalV3(project(ABnormal, CAO, A)));

        apos.Add(A);

        bpos.Add(B);

        vertices.Add(WorldV2ToLocalV3(project(ABnormal, CBO, B)));

        apos.Add(A);

        bpos.Add(B);

    }

}

shadowMesh.SetVertices(vertices);

shadowMesh.SetTriangles(triangles, 0);

shadowMesh.SetUVs(0, apos);

shadowMesh.SetUVs(1, bpos);

this.shadowMesh = shadowMesh;

return shadowMesh;

优化的余地

在我描述的方法下,每一帧都需要对光源旁的每个遮挡体边缘动态生成大量阴影Mesh,这显然对CPU的负担非常大。一种优化的做法是阴影Mesh对每个遮挡体的每条边生成,遮挡体的形状固定以后不会再变,用不同的uv坐标来表示不同的顶点(用不同的uv坐标来区分A、Ao、Ai),阴影Mesh的形状在Vertex shader当中计算。

由于一切计算在shader中可读性都会变得很差,我在这里就不展开介绍了,原理都是差不多的。

 

///

文将介绍通过Command Buffer扩展Unity Built-in Render Pipeline实现一个简单的2D光照系统。所涉及到的前置技术栈包括Unity,C#,render pipeline,shader programming等。2D Lighting Model
首先我们尝试仿照3D场景中的光照模型,对2D光照进行理论建模。
在现实世界中,我们通过肉眼所观测到的视觉图像,来自于光源产生的光,经过物体表面反射,通过晶状体、瞳孔等眼球光学结构,投射在视网膜上导致视觉细胞产生神经冲动,传递到大脑中形成。而在照片摄影中,则是经过镜头后投射在感光元件上成像并转换为数字图像数据。而在图形渲染中,通常通过模拟该过程,计算摄像机所接收到的来自物体反射的光,从而渲染出图像。
1986年,James T.Kajiya在论文THE RENDERING EQUATION[1]中提出了一个著名的渲染方程:

http://img.manew.com/data/attachment/forum/201906/24/103808thfavh9vemfa9zu0.jpg.thumb.jpg 
3D
场景中物体表面任意一面元所受光照,等于来自所有方向的光线辐射度的总和。这些光经过反射和散射后,其中一部分射向摄像机(观察方向)。(通常为了简化这一过程,我们可以假定这些光线全部射向摄像机)
而在2D平面场景中,我们可以认为,该平面上任意一点所受的光照,等于来自所有方向的光线辐射度的总和,其中的一部分射向摄像机,为了简化,我们认为这些光线全部进入摄像机。这一光照模型可以用以下方程描述:

http://img.manew.com/data/attachment/forum/201906/24/103912x7ibvzevt99di0ce.jpg.thumb.jpg 
即,平面上任意一点,或者说一个像素(x,y)的颜色,等于在该点处来自[0,2π]所有方向的光的总和。其中Light(x,y,θ)表示在点(x,y)处来自θ方向的光量。
基于这一光照模型,我们可以实现一个2D空间内的光线追踪渲染器。去年我在这系列文章的启发下,基于js实现了一个简单的2D光线追踪渲染器demo
Raytrace 2Dray-trace-2d.sardinefish.com

关于该渲染器,我写过一篇Blog:2D光线追踪渲染,借用该渲染器渲染出来的2D光线追踪图像,我们可以对2D光照效果做出一定的分析和比较。
 

http://img.manew.com/data/attachment/forum/201906/24/104020b2t52ptkgkzc2vt2.jpg.thumb.jpg 


2D Lighting System

Light Source

相较于3D实时渲染中的点光源、平行光源和聚光灯等多种精确光源,在2D光照中,通常我们只需要点光源就足以满足对2D光照的需求。

由于精确光源的引入,我们不再需要对光线进行积分计算,因此上文中的2D光照方程就可以简化为:
 

http://img.manew.com/data/attachment/forum/201906/24/104106ymfa6mm00z6ra06g.jpg.thumb.jpg 


即空间每点的光照等于场景中所有点光源在(x,y)处光量的总和。为了使光照更加真实,我们可以对点光源引入光照衰减机制:
 

http://img.manew.com/data/attachment/forum/201906/24/104218zzoeznnjon5zzpsp.jpg.thumb.jpg 
其中d为平面上一点到光源的距离,t为可调节参数,取值范围[0,1]
所得到的光照效果如图(t=0.3)

http://img.manew.com/data/attachment/forum/201906/24/104346oj2l2jklh5atl5yj.jpg.thumb.jpg 
光照衰减模型还有很多种,可以根据需求进行更改。
Light Rendering
在有了光源模型之后,我们需要将光照绘制到屏幕上,也就是光照的渲染实现。计算光照颜色与物体固有颜色的结合通常采用直接相乘的形式,即color=lightColor.rgb*albedo.rgb,与Photoshop等软件中的正片叠底是同样的。

http://img.manew.com/data/attachment/forum/201906/24/104421lzbs4lw631440ybw.jpg.thumb.jpg 
3D光照中,通常有两种光照渲染实现:Forward RenderingDeferred Shading。在2D光照中,我们也可以参考这两种光照实现:
Forward:对场景中的每个Sprite设置自定义Shader材质,渲染每一个2D光源的光照,然而由于Unity渲染管线的限制,这一过程的实现相当复杂,并且对于具有NSpriteM个光源的场景,光照渲染的时间复杂度为O(MN)
Deferred:这一实现类似于屏幕后处理,在Unity完成场景渲染后,对场景中的每个光源,绘制到一张屏幕光照贴图上,将该光照贴图与屏幕图像相乘得到最终光照效果,过程类似于上图。
显然在实现难度和运行效率上来说,选择Deferred的渲染方式更方便
Render Pipeline
Unity中实现这样的一个光照渲染系统,一些开发者选择生成一张覆盖屏幕的Mesh,用该Mesh渲染光照,最终利用Unity渲染管线中的透明度混合实现光照效果。这样的实现具有很好的平台兼容性,但也存在可扩展性较差,难以进行更复杂的光照和软阴影生成等问题
因此我在这里选择使用CommandBufferUnity渲染管线进行扩展,设计一条2D光照渲染管线,并添加到Unity Built-in Render Pipeline中。对于使用Unity Scriptable Render Pipeline的开发者,本文提到的渲染管线亦有一定参考用途,SRP也提供了相应扩展其渲染管线的相关API
总结一下上文关于2D光照系统的建模,以及光照渲染的实现,我们的2D光照渲染管线需要实现以下过程:
1.针对场景中每个需要渲染2D光照的摄像机,设置我们的渲染管线
2.准备一张空白的Light Map
3.遍历场景中的所有2D光源,将光照渲染到Light Map
4.抓取当前摄像机目标Buffer中的图像,将其与Light Map相乘混合后输出到摄像机渲染目标
Camera Script
要使用CommandBuffer扩展渲染管线,一个CommandBuffer实例只需要实例化一次,并通过Camera.AddCommandBuffer方法添加到摄像机的某个渲染管线阶段。此后需要在每次摄像机渲染图像前,即调用OnPreRender方法时,清空该CommandBuffer并重新设置相关参数。
这里还设置ExecuteInEditModeImageEffectAllowedInSceneView属性以确保能在编辑器的Scene视图中实时渲染2D光照效果。
这里选择CameraEvent.BeforeImageEffects作为插入点,即在Unity完成了场景渲染后,准备渲染屏幕后处理前的阶段。

[AppleScript] 纯文本查看 复制代码

using System.Collections;

using System.Linq;

using UnityEngine;

using UnityEngine.Rendering;

 

[ExecuteInEditMode]

[ImageEffectAllowedInSceneView]

[RequireComponent(typeof(Camera))]

public class Light2DRenderer : MonoBehaviour

{

    CommandBuffer cmd;

    // Init CommandBuffer & add to camera.

    void OnEnable()

    {

        cmd = new CommandBuffer();

        GetComponent<Camera>().AddCommandBuffer(CameraEvent.BeforeImageEffects, cmd);

    }

    void OnDisable()

    {

        GetComponent<Camera>().RemoveCommandBuffer(CameraEvent.BeforeImageEffects, cmd);

    }

    void OnPreRender()

    {

        // Setup CommandBuffer every frame before rendering.

        RenderDeffer(cmd);

    }

}


Setup CommandBuffer
由于我们要绘制一张光照贴图,并将其与屏幕图像混合,我们需要一个临时的RenderTexture(RT),这里设置Light Map的贴图格式为ARGBFloat,原因是我们希望光照贴图中每个像素的RGB光照分量是可以大于1的,这样可以提供更精确的光照效果和更好的扩展性,而默认的RT会在混合前将缓冲区中每个像素的值裁剪到[0,1]
在临时RT使用完毕后,请务必Release!请务必Release!请务必Release!(别问,问就是显卡崩溃)

[AppleScript] 纯文本查看 复制代码

public void RenderDeffer(CommandBuffer cmd)

{

    cmd.Clear();

 

    // Render light map

    var lightMap = Shader.PropertyToID("_LightMap");

    cmd.GetTemporaryRT(lightMap, -1, -1, 0, FilterMode.Bilinear, RenderTextureFormat.ARGBFloat);

    cmd.SetRenderTarget(lightMap);

    cmd.ClearRenderTarget(true, true, Color.black);

    var lights = GameObject.FindObjectsOfType<Light2D>();

    foreach (var light in lights)

    {

        light.RenderLight(cmd);

    }

 

    var screen = Shader.PropertyToID("_ScreenImage");

    cmd.GetTemporaryRT(screen, -1, -1);

    // Grab screen

    cmd.Blit(BuiltinRenderTextureType.CameraTarget, screen);

    // Blend light map & screen image with custom shader

    cmd.Blit(screen, BuiltinRenderTextureType.CameraTarget, LightingMaterial, 0);

 

    // DONT FORGET to release the temp RT!!!

    // OR your graphic card may crash after a while due to the memory overflow (may be) :)

    cmd.ReleaseTemporaryRT(lightMap);

    cmd.ReleaseTemporaryRT(screen);

    cmd.SetRenderTarget(BuiltinRenderTextureType.CameraTarget);

}


最终用于光照混合的Shader代码非常简单,这里使用了UNITY_LIGHTMODEL_AMBIENT引入一个场景全局光照,全局光照可以在Lighting>Scene面板里设置:

[AppleScript] 纯文本查看 复制代码

fixed4 frag(v2f i) : SV_Target

{

    float3 ambient = UNITY_LIGHTMODEL_AMBIENT;

    float3 light = ambient + tex2D(_LightMap, i.texcoord).rgb;

    float3 color = light * tex2D(_MainTex, i.texcoord).rgb;

    return fixed4(color, 1.0);

}


Render Lighting
渲染光源光照贴图的过程,对于不同的光源类型有不同的实现方式,例如直接使用Shader程序式生成,亦或是使用一张光斑贴图。其核心部分就是:
1.生成一张用于渲染的Mesh(通常就是一个简单的Quad
2.设置CommandBuffer将该Mesh绘制到Light Map
Quad就是一个正方形,可以用以下代码生成:

[AppleScript] 纯文本查看 复制代码

Mesh = new Mesh();

Mesh.vertices = new Vector3[]

{

    new Vector3(-.5, -.5, 0),

    new Vector3(.5, -.5, 0),

    new Vector3(-.5, .5, 0),

    new Vector3(.5, .5, 0),

};

Mesh.triangles = new int[]

{

    0, 2, 1,

    2, 3, 1,

};

Mesh.RecalculateNormals();

Mesh.uv = new Vector2[]

{

    new Vector2 (0, 0),

    new Vector2 (1, 0),

    new Vector2 (0, 1),

    new Vector2 (1, 1),

};


需要注意的是,Mesh资源不参与GC,也就是每次new出来的Mesh会永久驻留内存直到退出(导致Unity内存泄漏的一个主要因素)。因此不应该在每次渲染的时候new一个新的Mesh,而是在每次渲染时,调用Mesh.Clear()方法将Mesh清空后重新设置。
这里生成的Mesh基于该GameObject的本地坐标系,在调用CommandBuffer.DrawMesh以渲染该Mesh,我们还需要设置相应的TRS变换矩阵,以确保渲染在屏幕上的正确位置。

[AppleScript] 纯文本查看 复制代码

public void RenderLight(CommandBuffer cmd)

{

    if (!LightMaterial)

        LightMaterial = new Material(Shader.Find("Lighting2D/2DLight"));

     

    // You may want to set some properties for your lighting shader

    LightMaterial.SetTexture("_MainTex", LightTexture);

    LightMaterial.SetColor("_Color", LightColor);

    LightMaterial.SetFloat("_Attenuation", Attenuation);

    LightMaterial.SetFloat("_Intensity", Intensity);

    cmd.SetGlobalVector("_2DLightPos", transform.position);

     

    var trs = Matrix4x4.TRS(transform.position, transform.rotation, transform.localScale);

    cmd.DrawMesh(Mesh, trs, LightMaterial);

}


由于我们需要同时将多个光照绘制到同一张光照贴图上,根据光照物理模型,光照强度的叠加应当使用直接相加的方式,因此用于渲染光照贴图的Shader应该设置Blend属性为One One

[AppleScript] 纯文本查看 复制代码

Tags {

    "Queue"="Transparent"

    "RenderType"="Transparent"

    "PreviewType"="Plane"

    "CanUseSpriteAtlas"="True"

}

 

Lighting Off

ZWrite Off

Blend One One


2D Shadow
要在该光照系统中引入2D阴影,只需要在每次绘制光照贴图时,额外对每个阴影投射光源绘制一个阴影贴图(Shadow Map),并应用在渲染光照贴图的Shader中采样即可。

[AppleScript] 纯文本查看 复制代码

var lights = GameObject.FindObjectsOfType<Light2D>();

foreach (var light in lights)

{

    cmd.SetRenderTarget(shadowMap);

    cmd.ClearRenderTarget(true, true, Color.black);

    if (light.LightShadows != LightShadows.None)

    {

        light.RenderShadow(cmd, shadowMap);

    }

    cmd.SetRenderTarget(lightMap);

    light.RenderLight(cmd);

}


关于2D阴影贴图的生成,可以参考伪人的这篇文章:
伪人:如何在unity实现足够快的2d动态光照zhuanlan.zhihu.com
Source Code

完整的project放在了GitHub上:https://github.com/SardineFish/Unity2DLighting

截止本文,已实现的功能包括:
•2D光照系统框架
o渲染管线扩展
o全局光照设置
•2D光源
o程序式光源,光照衰减
o贴图光源
•2D阴影
o硬阴影
o软阴影(高斯模糊实现、体积光实现)
阴影投射物体目前仅支持多边形,未来将加入对BoxCircle2D碰撞体的阴影实现。
Git Taghttps://github.com/SardineFish/Unity2DLighting/tree/v0.1.0

  • 4
    点赞
  • 26
    收藏
    觉得还不错? 一键收藏
  • 1
    评论
Unity UnityWebSocket插件是一款用于在Unity项目中实现WebSocket通信的插件。WebSocket是一种新的网络通信协议,它建立在HTTP协议之上,可以提供全双工通信,使得客户端和服务器可以通过一次HTTP握手建立持久的连接,实现实时的双向通信。 Unity UnityWebSocket插件可以方便地在Unity中使用WebSocket协议进行网络通信。它提供了简洁易用的API接口,开发者可以轻松地实现连接、发送和接收消息等操作。通过该插件,我们可以构建实时的游戏功能,例如聊天系统、多人游戏和实时更新等。 使用Unity UnityWebSocket插件,开发者可以通过几行代码实现WebSocket的连接和消息处理。首先需要创建WebSocket连接,通过指定服务器地址和端口号等参数进行连接。连接建立后,可以通过发送消息来与服务器进行通信,并通过接收消息事件来处理服务器返回的数据。 Unity UnityWebSocket插件还提供了一些高级功能,例如心跳机制和断线重连。心跳机制可以保持连接的稳定性,防止连接断开。断线重连功能可以在网络连接断开后自动重新连接服务器,确保通信的连续性。 总之,Unity UnityWebSocket插件是一款强大的工具,可以帮助开发者在Unity实现WebSocket通信。它提供了简单易用的接口,并支持一些高级功能,使得开发者可以轻松地构建实时的游戏功能。该插件的使用可以提高开发效率,为游戏开发带来更多可能性。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值