randn函数加噪声_语义分割中常用的损失函数1(基础篇)

这篇博客介绍了在语义分割中常用的损失函数,包括L1 Loss和L2 Loss,主要应用于回归问题。重点讲解了交叉熵损失,从KL散度的角度解释其在分类任务中的作用,详细阐述了在多分类one-hot编码和二分类0-1编码情况下的应用。还提到了PyTorch中与交叉熵相关的损失函数,如CrossEntropyLoss和NLLLoss。
摘要由CSDN通过智能技术生成

一、L1、L2 loss (分割中不常用,主要用于回归问题)

  1. L1 Loss

L1 Loss 主要用来计算 input x 和 target y 的逐元素间差值的平均绝对值.

95a508ae67eeaaa17101955480f76341.png

pytorch表示为:

  • torch.nn.functional.l1_loss(input, target, size_average=True)

size_average主要是考虑到minibatch的情况下,需要求平均。

2522dde6bedd25d7129319b5b6213d3a.png
loss = nn.L1Loss()
input = torch.randn(3, 5, requires_grad=True)
target = torch.randn(3, 5)
output = loss(input, target)  #是一个标量
output.backward()
# 求这个标量loss对每个input元素的梯度 可以用input.grad显示出来L2 损失(MSE loss)L2 Loss
</
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值