Early Depth testing

正常情况下,depth testing(深度测试)是在屏幕空间进行的,是在fragment shader运行后,stencil testing运行后。

现在大部分GPUs支持Early Fragment Test也称为Early Depth Testing(提前深度测试),这是一种硬件特性。Early depth testing允许在fragment shader运行前进行depth test。只要一发现某个fragment不可见,则丢弃它,不再运行相应的fragment shader。这是一种性能优化。

使用early depth test硬件特性的最有效的方法是提前运行一个pass,即提前运行一条特殊的渲染管线(pre-processing pass),这条渲染管线只用来写入depth buffer,其中Vertex Shader除也变换顶点位置别的啥也不干,Fragment Shader直接不存在

(关于渲染管线可以看这篇这篇文章)

另外,在OpenGL中强制开启early depth test的方法是使用一个特殊的带有以下layout qualifier的fragment shader:

layout(early_fragment_tests) in;

这也会使stencil test提前发生。

**注意: **Early depth testing的一个限制是:不能写入fragment的depth value。如果一个fragment shader会写入depth value,则early depth testing无法使用,OpenGL将不能提前计算出depth value。

另外,在OpenGL中深度测试默认是关闭的,需要手动打开 :

glEnable(GL_DEPTH_TEST); 

在打开深度测试的情况下,可以通过设置depth mask,禁止写入depth buffer而使用read-only depth buffer:

glDepthMask(GL_FALSE);  

除了depth test外,其实现代GPUs也允许一些别的测试提前于fragment shader发生,比如: stencil test、The pixel ownership test、scissor test(OpenGL4.2起最后两个总是提前发生)。

References:

  • 1
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
PyTorch EarlyStopping 是一个用于在训练过程中提前停止模型训练的技术。当模型在训练过程中出现过拟合或者性能不再提升时,EarlyStopping 可以帮助我们停止训练,以避免过拟合并节省时间和计算资源。 在 PyTorch 中,我们可以通过自定义一个 EarlyStopping 类来实现这个功能。以下是一个简单的示例代码: ```python import numpy as np import torch class EarlyStopping: def __init__(self, patience=5, delta=0): self.patience = patience self.delta = delta self.best_loss = np.Inf self.counter = 0 self.early_stop = False def __call__(self, val_loss): if val_loss < self.best_loss - self.delta: self.best_loss = val_loss self.counter = 0 else: self.counter += 1 if self.counter >= self.patience: self.early_stop = True return self.early_stop ``` 在训练过程中,我们可以使用 EarlyStopping 类来监测验证集的损失值,并在满足停止条件时停止训练。例如: ```python # 创建 EarlyStopping 实例 early_stopping = EarlyStopping(patience=3) for epoch in range(num_epochs): # 训练模型 # 在验证集上计算损失值 val_loss = calculate_validation_loss(model, validation_data) # 检查是否满足停止条件 if early_stopping(val_loss): print("Early stopping") break # 继续训练 ``` 在上述示例中,`patience` 参数表示允许验证集损失连续 `patience` 个 epoch 没有下降的次数,`delta` 参数表示损失值必须至少下降 `delta` 才会被认为是有明显改进。如果连续 `patience` 次都没有达到这个改进,训练将被停止。 这就是 PyTorch EarlyStopping 的基本用法,它可以帮助我们更加高效地训练模型,并避免过拟合。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值