为什么会用到masked loss

本文探讨了在深度学习中,如何在使用序列模型时通过nn.functional.pad()添加padding处理边界,以及在计算loss时如何忽略padding部分的0值,通过masked_mse函数实现有效的误差计算。重点介绍了如何在实际项目中运用这些技术来优化模型训练过程。
摘要由CSDN通过智能技术生成

序列模型常常会用到padding(nn.functional.pad()),而padding添加的就是0.0。例如:

    def train(self, input, real_val):
        self.model.train()
        self.optimizer.zero_grad()
        input = nn.functional.pad(input, (1,0,0,0))
        output = self.model(input)
        ......

而在计算loss的时候,并不需要计算padding部分的0,因此我们需要用到masked loss。例如:

def masked_mse(preds, labels, null_val=np.nan):
    if np.isnan(null_val):
        mask = ~torch.isnan(labels)
    else:
        mask = (labels != null_val)
    mask = mask.float()
    mask /= torch.mean((mask))
    mask = torch.where(torch.isnan(mask), torch.zeros_like(mask), mask)
    loss = (preds - labels) ** 2
    loss = loss * mask
    loss = torch.where(torch.isnan(loss), torch.zeros_like(loss), loss)
    return torch.mean(loss)

  • 3
    点赞
  • 7
    收藏
    觉得还不错? 一键收藏
  • 1
    评论
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值