【体绘制】raymarching算法

最近研究云的渲染接触到了体绘制,在shadertoy上看了一些例子,不过它们都是全场景体绘制的,场景中的所有物体,地形均由数学方法生成。然后用一个quad覆盖整个屏幕,对每个片段进行raymarching,甚至是raytracing。好像有一个64kb的比赛,就是用最小的程序大小,看谁能够渲染出最漂亮的图像,令人不得不感叹数学的神奇。

要想系统的了解体绘制,推荐有一本非常好的书,Real-Time Volume Graphics,里面不仅介绍了用于科学领域的体绘制,而且针对游戏开者,非常详细的讲述了如何在GPU上实现并优化,如何将体绘制与传统的基于几何面片的渲染方式集成起来。

我自己也粗陋的实现了一下raymarching算法,绘制了一个3D柏林噪声,可以下载下来试试,效果我还挺满意的:

这里写图片描述

3D纹理

体绘制用到的纹理是3D的,第一次接触3D纹理的我还有点小懵逼…其实也很好理解,就是给2D纹理再加上一个维度。存储方式通常就是n张w*h的图片啦,不过在OpenGL中载入的时候会稍麻烦一些:

GLuint load3DPerlinNoise()
{
    GLuint perlinNoise;
    //perlinNoise = -1;
    glGenTextures(1, &perlinNoise);
    glBindTexture(GL_TEXTURE_3D, perlinNoise);

    char fileName[100];
    unsigned char* noiseData = new unsigned char[256*256*256*3];

    for(int i = 0; i < 256; i++){
        sprintf(fileName, "Perlin_Noise_BMP/Noise_Perlin%04d.bmp",i);
        int width, height, channel;
        unsigned char *data = SOIL_load_image(fileName, &width, &height, &channel, SOIL_LOAD_RGB);
        memcpy(noiseData + i*65536*3, data, sizeof(unsigned char)*width*height*3);
        SOIL_free_image_data(data);
    }

    glTexImage3D(GL_TEXTURE_3D, 0, GL_RGB, 256, 256, 256, 0, GL_RGB, GL_UNSIGNED_BYTE, (GLvoid*)noiseData);
    glTexParameteri(GL_TEXTURE_3D, GL_TEXTURE_MAG_FILTER, GL_LINEAR);
    glTexParameteri(GL_TEXTURE_3D, GL_TEXTURE_MIN_FILTER, GL_LINEAR);
    glTexParameteri(GL_TEXTURE_3D, GL_TEXTURE_WRAP_S, GL_CLAMP_TO_BORDER);
    glTexParameteri(GL_TEXTURE_3D, GL_TEXTURE_WRAP_T, GL_CLAMP_TO_BORDER);
    glTexParameteri(GL_TEXTURE_3D, GL_TEXTURE_WRAP_R, GL_CLAMP_TO_BORDER);
    delete noiseData;
    return perlinNoise;
}

一个是纹理数据存入buffer的时候,要加上一个维度的offset。再一个就是生成和绑定纹理的时候,都改成了GL_TEXTURE_3D,其他都是大同小异了。最后传入顶点纹理坐标时也变成了3维,从(0,0,0)到(1,1,1)。

raymarching 算法

raymarching 算法思想很直观:首先有一个3D的体纹理,然后从相机发射n条射线,射线有一个采样的步长。当射线处在体纹理中时,每个步长采一次样,获取纹理值(实际上表示该点的密度值),计算光照,然后和该条射线当前累积的颜色值进行混合。

为什么这样就可以渲染出正确的图案呢?因为光路是可逆的,从光源射出的光线经过散射,最终进入摄像机的效果等同于从摄像机发出的射线进行着色和采样,这个raytracing的道理是一样的。

图片来自网络,图侵删

这种算法很适合在GPU上实现,因为每条射线的计算都是独立并行的,GPU在大量并行计算上有先天的优势。为了在GPU上实现,我们需要解决的问题主要有2个:

  1. 哪些片段需要raymarching。
  2. raymarching的方向和终点在哪里。

下面来逐一进行解决。

确定raymarching的片段

体绘制首先需要一个载体(proxy geometry),也就是为了确定屏幕上的哪些像素是属于某个体纹理的。这个问题很容易就让人联想到包围盒,问题也就引刃而解。

我们只需将体纹理的包围盒绘制出来,那么包围盒在屏幕上覆盖的片段自然就是需要进行raymarching的了。如下图所示:

这里写图片描述

随后只需要执行raymarching的片断着色器即可。

raymarching的方向和终止点

在使用包围盒作为体绘制的载体时,起/终点就是每根ray进出包围盒时的两个交点。关于如何得到这两个点的坐标,有一种2个pass的算法:

  • 绘制包围盒的背面,即将OpenGL背面剔除设置为GL_FRONT,并将每个片段的世界坐标保存在纹理缓存中。
  • 绘制正面,将每个片段的坐标和上一个pass中的每个片段的坐标相减,即可的到ray的方向和长度,然后进行raymarching算法,达到长度终止即可(采样时要转换为纹理坐标)。

2个pass过程相对繁琐,我使用了1个pass:

  • 获得片段的世界坐标,然后减去视点位置得到ray的方向。然后每次步进时都判断当前的纹理坐标是否超出了包围盒的边界,一旦超出,就停止算法。

确定ray的起始和终止点,是一个对资源消耗很大的过程,这方面也有许多内容值得研究,作为一个探索原理的程序,就以体现算法思想为主了。

实现

顶点着色器如下:

#version 450 core

layout(location = 0) in vec3 vertices;
layout(location = 1) in vec3 UVW;

uniform mat4 M;
uniform mat4 V;
uniform mat4 P;
uniform vec3 viewPos;

out vec3 textCoord;
out vec3 fragWorldPos;

void main()
{
    gl_Position = P*V*M*vec4(vertices, 1.0);
    // 把片段的世界坐标以及纹理坐标传递给下一个阶段
    fragWorldPos = vec3(M*vec4(vertices, 1.0));
    textCoord = UVW;
}

然后是片断着色器:

#version 450 core

uniform sampler3D noiseSampler;
out vec4 outColor;

in vec3 textCoord;
in vec3 fragWorldPos;
uniform vec3 viewPos;

uniform mat4 M;

struct Ray{
    vec3 o;
    vec3 d;
}eyeRay;

// 这个着色函数copy的shadertoy上iq大神的,关于体绘制的着色还没有开始深入的学习,日后再说哈哈
vec4 integrate( in vec4 sum, in float dif, in float den, in vec3 bgcol, in float t )
{
    // lighting
    vec3 lin = vec3(0.65,0.7,0.75)*1.4 + vec3(1.0, 0.6, 0.3)*dif;        
    vec4 col = vec4( mix( vec3(1.0,0.95,0.8), vec3(0.25,0.3,0.35), den ), den );
    col.xyz *= lin;
    col.xyz = mix( col.xyz, bgcol, 1.0-exp(-0.003*t*t) );
    // front to back blending    
    col.a *= 0.2;
    col.rgb *= col.a;
    return sum + col*(1.0-sum.a);
}

#define CHECK_IN_BOX(p) \
if(p.x < 0.0 || p.x > 1.0\
 ||p.y < 0.0 || p.y > 1.0\
 ||p.z < 0.0 || p.z > 1.0)\
 break;

void main()
{
    vec3 bgColor = vec3(0.8,0.0,0.4);
    vec3 lightColor = vec3(0.6, 0.8, 0.7);
    vec3 lightDir = normalize(vec3(5,5,5));

    // 射线的起点和方向
    eyeRay.o = viewPos;
    // 由于采样时使用的纹理坐标,
    // 而这个3D纹理坐标系和包围盒的本地坐标系是平行的(原点可能不一致),
    // 因此将ray的方向向量从世界坐标转换回本地坐标
    eyeRay.d = inverse(mat3(M)) * normalize(fragWorldPos - viewPos);

    float stepSize = 0.005;
    vec4 result = vec4(0.0);
    // 采样其实是从这个片段的纹理坐标开始的,然后沿着ray的方向步进
    vec3 p = textCoord;
    float steps = 0;
    for(int i = 0; i < 1000; i++, steps++){
        CHECK_IN_BOX(p);
        float dens = texture(noiseSampler, p).r;
        if(dens >= 0.01){
            float dif = clamp((dens - texture(noiseSampler, p + lightDir *0.5).r), 0.0, 1.0);
            result = integrate(result, dif, dens, bgColor, stepSize);
        }
        p += stepSize*eyeRay.d;
    }

    outColor = result;
    //outColor = vec4(fragWorldPos, 1.0);
}

shader代码和算法有非常直观的对应,也比较好理解。

接下来就是学习关于体绘制着色的算法了。相比于传统的几何面光照计算,体绘制复杂了许多,光线在粒子中的散射行为比较复杂,也有许多公式用来近似这个过程。看到书中的大把公式,我这数学白痴顿时有点腿软的感觉了…Anyway,体绘制是一个非常有意思的领域,能够绘制出很多美妙的效果。

  • 7
    点赞
  • 22
    收藏
    觉得还不错? 一键收藏
  • 8
    评论
Ray casting算法是一种绘制方法,它基于射线扫描过程。该算法的基本原理是从屏幕上的每一个像素点出发,沿着视线方向发射出一条光线,当这条光线穿过数据时,沿着光线方向等距离进行采样,利用插值计算出采样点的颜色值和不透明度。然后按照从前到后或从后到前的顺序对光线上的采样点进行合成,计算出这条光线对应的屏幕上像素点的颜色值。 Ray casting算法的优化方法包括光线提前终止和利用空间数据结构来跳过无用的素。光线提前终止是指当光线穿过数据的某个区域后,可以根据采样点的颜色值和不透明度判断是否继续进行采样,以减少计算量。利用空间数据结构如八叉树、金字塔和k-d树等可以对数据进行优化,以快速确定光线素的交点,并跳过无用的素,从而提高算法的效率。 总而言之,Ray casting算法是一种基于光线投射绘制方法,通过沿视线方向发射光线并对采样点进行插值计算,得出每个像素点的颜色值。该算法可以通过光线提前终止和利用空间数据结构等优化方法来提高效率。<span class="em">1</span><span class="em">2</span><span class="em">3</span> #### 引用[.reference_title] - *1* *2* [绘制光线投射算法(附源码)](https://blog.csdn.net/u010839382/article/details/50609003)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v93^chatsearchT3_2"}}] [.reference_item style="max-width: 50%"] - *3* [light_raycasting:Raycasting算法python实现的灵感来自](https://download.csdn.net/download/weixin_42099942/18378365)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v93^chatsearchT3_2"}}] [.reference_item style="max-width: 50%"] [ .reference_list ]

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 8
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值