Unity中透明材质物体渲染到RenderTexture的问题

转载https://blog.csdn.net/u012662020/article/details/51028904

最近在做一个小项目,需要将模型作为UI显示在屏幕上,所以使用了RenderTexture。制作过程大概为新建一个摄像机对准模型物体,新建RenderTexture被这个摄像机引用,摄像机背景设为透明。使用NGUI,新建一个UITexture,将此RederTexture作为材质赋给它。而该模型为了实现半透明效果用了Transparent/Deffuse的Shader。设想中此时半透明的模型渲染在屏幕上了,但此时问题出现了,屏幕上空空如也!如果此时我们试着把摄像机背景从0调高的时候,物体会出现,它的透明的似乎随着摄像机的背景的透明度在变化,而尴尬的是我们不需要摄像机背景,不管是天空盒也好还是颜色也好。问题就是物体会随着摄像机的背景而隐去。排查之后问题出现在模型的材质上,也就是Transparent/Diffuse的Shader上。当我们用普通的Diffuse的Shader的时候模型完整地显示在屏幕上,摄像机背景也为透明,只是无法实现模型的半透明的效果。本人水平有限,一直百思不得其解,物体单独使用了一个材质,为什么它的半透明图像会随着摄像机背景而隐去?直到最近接触了Shader。该问题已经解决,但其中的原理还没搞清楚。解决方法是我们要实现物体的半透明效果,但不能使用Unity自带的Transparent/Diffuse的Shader。自己写一个最简单的Shader即可。新建Shader,代码如下:
 

Shader "Custom/Transparent" 
{
	Properties 
	{
		_MainTex ("Base (RGB)", 2D) = "white" {}
		_Color("MainColor",Color)=(1.0,1.0,1.0,1.0)
	}
	SubShader 
	{
		Tags { "RenderType"="Transparent" }
		LOD 200
		
		CGPROGRAM
		#pragma surface surf Lambert
		
		fixed4 _Color;
		sampler2D _MainTex;
 
		struct Input 
		{
			float2 uv_MainTex;
		};		
		
		void surf (Input IN, inout SurfaceOutput o) 
		{
			half4 c = tex2D (_MainTex, IN.uv_MainTex)*_Color;
			o.Albedo = c.rgb;
			o.Alpha = c.a;
		}
		ENDCG
	} 
	FallBack "Diffuse"
}

没有加注释,相信有基础的一眼就能看懂,没有接触过的也没必要去明白,解决问题就行。这里就加了一张简单的纹理贴图,没用其他贴图。模型使用这个Shader就可以任意修改透明度,而不会受摄像机背景的影响。

为了探究原因,找到了Unity自带的Transparent/Diffuse的源码:
 

Shader "Transparent/Diffuse" {
Properties {
	_Color ("Main Color", Color) = (1,1,1,1)
	_MainTex ("Base (RGB) Trans (A)", 2D) = "white" {}
}
 
SubShader {
	Tags {"Queue"="Transparent" "IgnoreProjector"="True" "RenderType"="Transparent"}
	LOD 200
 
CGPROGRAM
#pragma surface surf Lambert alpha
 
sampler2D _MainTex;
fixed4 _Color;
 
struct Input {
	float2 uv_MainTex;
};
 
void surf (Input IN, inout SurfaceOutput o) 
{
	fixed4 c = tex2D(_MainTex, IN.uv_MainTex) * _Color;
	o.Albedo = c.rgb;
	o.Alpha = c.a;
}
ENDCG
}
 
Fallback "Transparent/VertexLit"
}

其实区别不大。问题就出现在

#pragma surface surf Lambert alpha

这一行。我们自己写的用的为:

#pragma surface surf Lambert

就这一点的差别。添加alpha关键字其实是告诉Unity使用Lambert光照模型并且我们将渲染一个透明的Surface。在Unity中渲染一个透明物体标准的做法是声明这两句:

Tags { "RenderType"="Transparent" }

#pragma surface surf Lambert alpha

此时这个透明材质会与其他透明材质一起渲染。而并不表明只有声明了这两句材质才带有透明通道。实际上如果我们这样声明:

Tags { "RenderType"="Opaque" }

#pragma surface surf Lambert

物体同样可以带有透明材质,但这时它是与普通非透明材质一起渲染的。非常规的做法解决了问题,而Unity内部的原理还需要研究。

 

个人理解,欢迎批评指正。

  • 2
    点赞
  • 3
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
Unity通过点击RawImage来获取RenderTexture的映射物体需要编写一些脚本逻辑。首先,在场景创建一个RawImage和一个空物体,并将RawImage设为UI元素。接下来,我们需要在脚本实现点击RawImage的功能。 首先,在需要实现点击事件的脚本添加以下代码段: ```csharp using UnityEngine; using UnityEngine.EventSystems; public class ClickRawImage : MonoBehaviour, IPointerClickHandler { public GameObject mappedObject; // 映射的物体 public RenderTexture renderTexture; // 渲染纹理 public void OnPointerClick(PointerEventData eventData) { // 获取点击的位置 Vector2 localCursor; RectTransformUtility.ScreenPointToLocalPointInRectangle(GetComponent<RectTransform>(), eventData.position, null, out localCursor); // 将点击的位置转换为纹理坐标 Vector2 textureCoordinates = new Vector2(localCursor.x / GetComponent<RectTransform>().rect.width + 0.5f, localCursor.y / GetComponent<RectTransform>().rect.height + 0.5f); // 根据纹理坐标获取映射的位置 Ray ray = Camera.main.ViewportPointToRay(textureCoordinates); RaycastHit hit; if (Physics.Raycast(ray, out hit)) { // 获取点击位置的映射物体 mappedObject = hit.transform.gameObject; } } } ``` 在脚本,我们需要实现接口`IPointerClickHandler`来响应RawImage的点击事件。在点击事件回调函数`OnPointerClick`,首先计算出点击的位置`localCursor`,然后将其转换为纹理坐标`textureCoordinates`。接着,根据纹理坐标通过Raycast来获取点击位置的映射物体,并将其赋值给`mappedObject`。 最后,将该脚本挂载到RawImage上,并将相应的RenderTexture赋值给脚本的`renderTexture`变量。这样,当点击RawImage时,就可以通过点击位置获取到映射的物体了。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值