一、L1、L2 loss (分割中不常用,主要用于回归问题)
- L1 Loss
L1 Loss 主要用来计算 input x 和 target y 的逐元素间差值的平均绝对值.
pytorch表示为:
- torch.nn.functional.l1_loss(input, target, size_average=True)
size_average主要是考虑到minibatch的情况下,需要求平均。
loss = nn.L1Loss()
input = torch.randn(3, 5, requires_grad=True)
target = torch.randn(3, 5)
output = loss(input, target) #是一个标量
output.backward()
# 求这个标量loss对每个input元素的梯度 可以用input.grad显示出来L2 损失(MSE loss)L2 Loss
</