投影纹理映射(Projective Texture Mapping)

转载:http://blog.csdn.net/xiajun07061225/article/details/7672635

 

一、纹理投影映射简介

投影纹理映射用于映射一个纹理到物体上,好比将幻灯片投影到墙上一样。

投影纹理映射经常在一些阴影算法以及体绘制(Volume Rendering)算法中用到。严格的说,只要涉及到“纹理实时和空间顶点对应”,通常都要用到投影纹理映射技术。

下面是一个纹理投影映射的实例效果图:


图一 纹理投影映射效果图


二、纹理投影映射优点

1、将纹理与空间顶点实时对应,不需要预先在建模软件中生成纹理坐标。

2、使用投影映射时,可以有效避免纹理扭曲现象。

下面图显示了投影纹理映射和普通纹理贴图的效果对比:


图二 投影空间插值和真实空间插值对比


三、原理以及实现步骤

为了把纹理投影到一个表面上,我们所要做的是根据表面点的位置和投影源来确定纹理坐标。我们可以把投影源摄像成一个摄像机,位于场景的某处。就像OpenGL中定义一个摄像机一样,我们这样的一个坐标系统(不放称之为投影坐标系统):中心点位于投影源所在的位置,视图矩阵V将坐标转化到投影坐标系统,透视投影矩阵P将视景体转换为一个大小为2的立方体,其中心点位于投影坐标系统的原点。将这两个矩阵叠加在一起,再加上缩放和平移的变换矩阵(用于把刚才得到的大小为2的立方体变为大小为1,而且中心点位于(0.5,0.5,0.5))。我们就得到了下面的变换矩阵:


图三 投影纹理映射坐标变换矩阵

需要注意的是:这样得到的坐标是没有被归一化的,在访问纹理之前需要将各分量除以其w分量。

上述的矩阵P、V均可以通过摄像机的位置、摄影角度求得。


投影纹理映射通常包含了两个内容:纹理坐标被分配到顶点上的方式以及图元光栅化阶段它们的计算方式。我们经常把纹理映射看成将纹理图像应用到图元上–事实确实是这样,但是其中包含着很多数学计算。

光栅化的一些细节

当进行投影纹理映射时,我们使用齐次(homogeneous)纹理坐标,或者叫位于投影空间的坐标。当进行非投影纹理映射时,我们使用real纹理坐标,或者叫位于real space的坐标。对于2D纹理投影映射,3分量的齐次坐标(s,t,q)被在图元以及每个片断上插值,插值后的齐次坐标被投影到real 2D纹理坐标(s/q,t/q),然后访问纹理。而对于非投影的2D纹理映射,2分量的real坐标(s,t)被在图元上插值,然后直接用于访问纹理图像。

这样也就导致了前面图二中的插值效果上的差别。


分配齐次纹理坐标

上述关于光栅化的讨论基于的一个假设是每个顶点已经被分配了齐次纹理坐标。作为应用程序编写者,这是我们所要做的工作。下面讨论如何在OpenGL中实现它。

设想纹理是从一个投影仪投影到一个场景上的。这个投影仪和摄像机有很多共同属性:它有视图变换(将world space 坐标变换到projector space或者叫eye space),有投影变换(将projector space视体映射到剪切坐标)。最后,我们实施缩放和偏移操作来进行范围映射。对于摄像机,x和y是依据当前的视口设置进行映射,z是依据当前的深度范围进行映射。对于投影纹理映射,而范围映射一般是把每个坐标映射到区间[0,1]内。

下图对比了两种变换:应用到顶点坐标用于计算window space位置坐标的变换和计算投影纹理坐标的变换。


图四 应用到world space顶点坐标上的用于计算window space坐标的摄像机变换和应用到world space顶点坐标上用于计算投影纹理坐标的投影变换很相似


分配纹理坐标很重要的一方面是利用OpenGL的纹理坐标生成的功能。它是根据顶点的其他属性来产生纹理坐标。比如GL_OBJECT_LINEAR和GL_EYE_LINEAR,在object space和eyes pace内的顶点坐标分别被用来产生纹理坐标。另外一些方式使用了其他补贴的属性。GL_SPEREMAP和GL_REFLECTION_MAP使用了eye space顶点坐标和法线。GL_NORMAL_MAP则是根据法线向量产生纹理坐标。

OpenGL对于每个坐标方向可以使用不同的产生纹理坐标的方法。比如你可以在S方向采用GL_SPHERE_MAP,在T上采用GL_REFLECTION_MAP,在R上采用GL_OBJECT_LINEAR,Q上采用GL_EYE_LINEAR。不过这种特性并不是很有用,我们通常采用相同的方式。


下面以一个实际的例子来说明如何实现投影纹理映射(OpenGL+GLSL),其效果及开头所给出的图一。图中绘制了一个茶壶,然后从一个方向将一幅纹理图像投影到茶壶上面。

顶点着色器projtex.vs:

#version 400

  1. layout (location = 0) in vec3 VertexPosition;  
  2. layout (location = 1) in vec3 VertexNormal;  
  3.   
  4. out vec3 EyeNormal;       // Normal in eye coordinates   
  5. out vec4 EyePosition;     // Position in eye coordinates   
  6. out vec4 ProjTexCoord;  
  7.   
  8. uniform mat4 ProjectorMatrix;//用于计算投影纹理映射的矩阵   
  9.   
  10. uniform vec3 WorldCameraPosition;  
  11. uniform mat4 ModelViewMatrix;//模型视图矩阵   
  12. uniform mat4 ModelMatrix;//模型变换矩阵   
  13. uniform mat3 NormalMatrix;//法线变换矩阵   
  14. uniform mat4 ProjectionMatrix;//投影变换矩阵   
  15. uniform mat4 MVP;//模型视图变换矩阵   
  16.   
  17. void main()  
  18. {  
  19.     vec4 pos4 = vec4(VertexPosition,1.0);  
  20.   
  21.     EyeNormal = normalize(NormalMatrix * VertexNormal);  
  22.     EyePosition = ModelViewMatrix * pos4;  
  23.     ProjTexCoord = ProjectorMatrix * (ModelMatrix * pos4);  
  24.     gl_Position = MVP * pos4;  
  25. }  
  1. layout (location = 0) in vec3 VertexPosition;  
  2. layout (location = 1) in vec3 VertexNormal;  
  3.   
  4. out vec3 EyeNormal;       // Normal in eye coordinates  
  5. out vec4 EyePosition;     // Position in eye coordinates  
  6. out vec4 ProjTexCoord;  
  7.   
  8. uniform mat4 ProjectorMatrix;//用于计算投影纹理映射的矩阵  
  9.   
  10. uniform vec3 WorldCameraPosition;  
  11. uniform mat4 ModelViewMatrix;//模型视图矩阵  
  12. uniform mat4 ModelMatrix;//模型变换矩阵  
  13. uniform mat3 NormalMatrix;//法线变换矩阵  
  14. uniform mat4 ProjectionMatrix;//投影变换矩阵  
  15. uniform mat4 MVP;//模型视图变换矩阵  
  16.   
  17. void main()  
  18. {  
  19.     vec4 pos4 = vec4(VertexPosition,1.0);  
  20.   
  21.     EyeNormal = normalize(NormalMatrix * VertexNormal);  
  22.     EyePosition = ModelViewMatrix * pos4;  
  23.     ProjTexCoord = ProjectorMatrix * (ModelMatrix * pos4);  
  24.     gl_Position = MVP * pos4;  
  25. }  
layout (location = 0) in vec3 VertexPosition;
layout (location = 1) in vec3 VertexNormal;

out vec3 EyeNormal;       // Normal in eye coordinates
out vec4 EyePosition;     // Position in eye coordinates
out vec4 ProjTexCoord;

uniform mat4 ProjectorMatrix;//用于计算投影纹理映射的矩阵

uniform vec3 WorldCameraPosition;
uniform mat4 ModelViewMatrix;//模型视图矩阵
uniform mat4 ModelMatrix;//模型变换矩阵
uniform mat3 NormalMatrix;//法线变换矩阵
uniform mat4 ProjectionMatrix;//投影变换矩阵
uniform mat4 MVP;//模型视图变换矩阵

void main()
{
    vec4 pos4 = vec4(VertexPosition,1.0);

    EyeNormal = normalize(NormalMatrix * VertexNormal);
    EyePosition = ModelViewMatrix * pos4;
    ProjTexCoord = ProjectorMatrix * (ModelMatrix * pos4);
    gl_Position = MVP * pos4;
}

上面的代码前两行是将法线和顶点坐标变换到eye space。

然后是计算投影纹理坐标:先将位于object space的坐标变换到world space,然后通过左乘纹理投影矩阵变换计算出纹理投影坐标。

最后计算内置的gl_Position即剪切平面坐标。

片断着色器projtex.fs(下面只列出一部分):

  1. #version 400   
  2.   
  3. in vec3 EyeNormal;       // Normal in eye coordinates   
  4. in vec4 EyePosition;     // Position in eye coordinates   
  5. in vec4 ProjTexCoord;  
  6.   
  7. uniform sampler2D ProjectorTex;  
  8.   
  9. layout( location = 0 ) out vec4 FragColor;  
  10.   
  11. void main() {  
  12.     vec3 color = phongModel(vec3(EyePosition), EyeNormal);  
  13.   
  14.     vec4 projTexColor = vec4(0.0);  
  15.     if( ProjTexCoord.z > 0.0 )  
  16.         //textureProj:纹理坐标各分量会除以最后一个分量   
  17.         projTexColor = textureProj( ProjectorTex, ProjTexCoord );  
  18.   
  19.     FragColor = vec4(color,1.0) + projTexColor * 0.5;  
  20. }  
  1. #version 400  
  2.   
  3. in vec3 EyeNormal;       // Normal in eye coordinates  
  4. in vec4 EyePosition;     // Position in eye coordinates  
  5. in vec4 ProjTexCoord;  
  6.   
  7. uniform sampler2D ProjectorTex;  
  8.   
  9. layout( location = 0 ) out vec4 FragColor;  
  10.   
  11. void main() {  
  12.     vec3 color = phongModel(vec3(EyePosition), EyeNormal);  
  13.   
  14.     vec4 projTexColor = vec4(0.0);  
  15.     if( ProjTexCoord.z > 0.0 )  
  16.         //textureProj:纹理坐标各分量会除以最后一个分量  
  17.         projTexColor = textureProj( ProjectorTex, ProjTexCoord );  
  18.   
  19.     FragColor = vec4(color,1.0) + projTexColor * 0.5;  
  20. }  
#version 400

in vec3 EyeNormal;       // Normal in eye coordinates
in vec4 EyePosition;     // Position in eye coordinates
in vec4 ProjTexCoord;

uniform sampler2D ProjectorTex;

layout( location = 0 ) out vec4 FragColor;

void main() {
    vec3 color = phongModel(vec3(EyePosition), EyeNormal);

    vec4 projTexColor = vec4(0.0);
    if( ProjTexCoord.z > 0.0 )
        //textureProj:纹理坐标各分量会除以最后一个分量
        projTexColor = textureProj( ProjectorTex, ProjTexCoord );

    FragColor = vec4(color,1.0) + projTexColor * 0.5;
}
函数phongModel是计算phong光照模型的。

注意其中的textureProj函数,它专门用于投影纹理访问的。它的纹理坐标的各分量会除以最后一个分量,然后才访问纹理。

在这个例子中,我们假设投影仪位于(2.0,5.0,5.0),朝向是(-2.0,-4.0,0.0),方向(0.0,1.0,0.0)是向上的。我们采用了一个外部库GLM库来根据投影仪的这些信息计算出各个变换矩阵,代码如下:

  1. vec3 projPos = vec3(2.0f,5.0f,5.0f);  
  2. vec3 projAt = vec3(-2.0f,-4.0f,0.0f);  
  3. vec3 projUp = vec3(0.0f,1.0f,0.0f);  
  4. mat4 projView = glm::lookAt(projPos, projAt, projUp);  
  5. mat4 projProj = glm::perspective(30.0f, 1.0f, 0.2f, 1000.0f);  
  6. mat4 projScaleTrans = glm::translate(vec3(0.5f)) * glm::scale(vec3(0.5f));  
  7. prog.setUniform(“ProjectorMatrix”, projScaleTrans * projProj * projView);  

  • 1
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 1
    评论
提供的源码资源涵盖了Java应用等多个领域,每个领域都包含了丰富的实例和项目。这些源码都是基于各自平台的最新技术和标准编写,确保了在对应环境下能够无缝运行。同时,源码中配备了详细的注释和文档,帮助用户快速理解代码结构和实现逻辑。 适用人群: 适合毕业设计、课程设计作业。这些源码资源特别适合大学生群体。无论你是计算机相关专业的学生,还是对其他领域编程感兴趣的学生,这些资源都能为你提供宝贵的学习和实践机会。通过学习和运行这些源码,你可以掌握各平台开发的基础知识,提升编程能力和项目实战经验。 使用场景及目标: 在学习阶段,你可以利用这些源码资源进行课程实践、课外项目或毕业设计。通过分析和运行源码,你将深入了解各平台开发的技术细节和最佳实践,逐步培养起自己的项目开发和问题解决能力。此外,在求职或创业过程中,具备跨平台开发能力的大学生将更具竞争力。 其他说明: 为了确保源码资源的可运行性和易用性,特别注意了以下几点:首先,每份源码都提供了详细的运行环境和依赖说明,确保用户能够轻松搭建起开发环境;其次,源码中的注释和文档都非常完善,方便用户快速上手和理解代码;最后,我会定期更新这些源码资源,以适应各平台技术的最新发展和市场需求。 所有源码均经过严格测试,可以直接运行,可以放心下载使用。有任何使用问题欢迎随时与博主沟通,第一时间进行解答!
Projective Texture Mapping 是一种常用的 Shader 技术,可以用来在 Unity 中实现纹理投影效果。它的原理是通过将投影纹理映射到场景物体上,并基于物体的表面法线和光照方向来计算出光照效果,从而实现物体表面的投影纹理效果。 以下是一个简单的 Projective Texture Mapping 的 Shader 示例: ```shader Shader "Custom/ProjectiveTextureMapping" { Properties { _MainTex ("Texture", 2D) = "white" {} _ProjTex ("Projection Texture", 2D) = "white" {} _Intensity ("Intensity", Range(0,1)) = 1 } SubShader { Pass { CGPROGRAM #pragma vertex vert #pragma fragment frag #include "UnityCG.cginc" struct appdata { float4 vertex : POSITION; float3 normal : NORMAL; }; struct v2f { float4 projPos : TEXCOORD0; float3 worldNormal : TEXCOORD1; float4 vertex : SV_POSITION; }; sampler2D _MainTex; sampler2D _ProjTex; float _Intensity; v2f vert (appdata v) { v2f o; o.vertex = UnityObjectToClipPos(v.vertex); o.worldNormal = UnityObjectToWorldNormal(v.normal); o.projPos = ComputeGrabScreenPos(o.vertex); return o; } fixed4 frag (v2f i) : SV_Target { // 计算纹理坐标 float2 projCoord = i.projPos.xy / i.projPos.w; projCoord = 0.5 * (projCoord + 1.0); // 计算投影纹理颜色 fixed4 projColor = tex2D(_ProjTex, projCoord); // 计算漫反射光照 float3 worldNormal = normalize(i.worldNormal); float3 worldLightDir = normalize(_WorldSpaceLightPos0.xyz); float intensity = _Intensity * max(0, dot(worldNormal, worldLightDir)); // 计算最终颜色并返回 fixed4 texColor = tex2D(_MainTex, i.uv); fixed4 finalColor = lerp(texColor, projColor, intensity); return finalColor; } ENDCG } } } ``` 这个 Shader 的主要实现思路是,将投影纹理的颜色和物体表面原有的颜色进行插值计算,插值的比例根据光照方向和表面法线来计算。其中,ComputeGrabScreenPos() 函数用于将物体的顶点坐标转换为屏幕坐标,从而计算出纹理坐标。在 Pass 中的 vert 函数中,通过 UnityObjectToWorldNormal() 函数将物体的法线转换为世界坐标系下的法线,从而能够正确计算出光照效果。 使用这个 Shader,将它添加到一个材质中,并将这个材质应用到需要投影纹理的物体上,就可以实现 Projective Texture Mapping 技术了。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值