精简UE5贴图重复率

Part1方法一:噪波纹理叠加

效果对比:

cce2476aa4f6a176255afe58ba2e34fc.png
未处理
0ef4fa54a94bda4f1399c1d5ae7021f5.png
已处理

Part2处理方案如下:

一、首先确保使用的贴图为高质量贴图,不带有特殊的印记,如果贴图本身带有特殊的纹理,则很难处理,例如下方贴图中包含特有的破损标记,则很难处理。

7fb2b9932523b7e497fbce716973df47.png
而此类贴图处理是效果不好
b075325c374da4e807dfd68776fe0294.png
而此类贴图处理是效果非常好

二、准备一张合适的噪波贴图

b16616bf4a667e883f82d972f8391e6a.png在材质编辑器中复制三份,分别和坐标纹理做一个乘法,乘以不同系数,将其分成小纹理、中纹理和大纹理三个素材。将这三个纹理素材分别用相加节点提亮,然后用相乘节点进行混合。

4183bc177fd3709fa22501a23b6ef118.png再连接一个lerp节点,将混合的图片连进alpha充当蒙版,常量A给予一个颜色控制,常量B链接小纹理素材,最后形成一个随机性的纹理素材,和颜色贴图进行相乘。

0476d729164a15883ea1205193fea9a1.png
原来的颜色贴图

65fde83d8751b71417dd84f3f6ab6e14.png给予颜色贴图一个局部颜色随机变化的效果来达到破坏纹理规律的目的。

Part3方法二:控制相机距离远近实现贴图混合

849f7bef0685894be208bec2ac3aab89.png
未处理
e8d6e55cb9ab2176e116c9a7e1821944.png
已处理

Part4处理方案如下

首先建立一个基础的材质球,然后在这个基础的材质球上添加一个距离混合节点并设置好相应参数,随后建立两套纹理材质,一套是距离较近的,纹理密集,细节多,一套是距离较远,纹理疏散,细节少,分别与距离混合节点用Lerp节点相连。

b9421a8c69f32d977904389c38de22f6.png

这样做的效果在较近的状态来看是非常不错的,但是使用到项目中,从俯视的角度就有一定的问题,所以,在真实项目中,此类草地等不规则的材质使用方案一与方案二相加的方案效果更佳。

4127284191cb8acb4c3248da59516c2d.png 456ce25efd4a40fc1b6eebca522aa220.png

Part5Inveta团队

Inveta团队由研发、美术设计、建模等组成。团队介绍:
https://www.inveta.cn/about.html
团队开源项目:
https://github.com/inveta

  • 0
    点赞
  • 11
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
以下是使用yolov5-master库进行实例分割推理的简化代码示例: 1. 导入所需库和模块: ```python import torch from PIL import Image from yolov5.models.experimental import attempt_load from yolov5.utils.general import non_max_suppression, scale_coords from yolov5.utils.datasets import letterbox from yolov5.utils.plots import plot_one_box device = torch.device("cuda" if torch.cuda.is_available() else "cpu") ``` 2. 定义推理函数: ```python def instance_segmentation(image_path): # 加载模型 model_path = 'path/to/your/model.pt' model = attempt_load(model_path, map_location=device) # 加载模型 model.to(device).eval() # 读取图像 image = Image.open(image_path) original_image = image.copy() image = letterbox(image, new_shape=model.imgsz)[0] # 转换为Tensor image = torch.from_numpy(image.transpose(2, 0, 1)).float().div(255.0).unsqueeze(0).to(device) # 进行推理 pred = model(image)[0] pred = non_max_suppression(pred, conf_thres=0.3, iou_thres=0.45) # 处理预测结果 for det in pred[0]: if det is not None: det[:, :4] = scale_coords(image.shape[2:], det[:, :4], original_image.size).round() # 绘制边框和标签 for *xyxy, conf, cls in reversed(det): plot_one_box(xyxy, original_image, label=f'{conf:.2f}', color=(0, 255, 0), line_thickness=3) # 显示结果 original_image.show() ``` 3. 调用推理函数: ```python if __name__ == '__main__': image_path = 'path/to/your/image.jpg' instance_segmentation(image_path) ``` 请确保已将模型文件和待推理的图像文件路径正确设置,并对代码进行适当的调整以满足自己的需求。这是一个简化的示例代码,你还可以根据具体情况对其进行修改和优化。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值