改进的smooth L1损失

smooth L1的定义如下:

一般smooth L1用于回归任务。

对x求导:

smooth L1 在 x 较小时,对 x 的梯度也会变小,而在 x 很大时,对 x 的梯度的绝对值达到上限 1,也不会太大以至于破坏网络参数。 smooth L1 完美地避开了 L1 和 L2 损失的缺陷。

最近研究一些图像生成任务(比如视频编解码)时,常用的损失也是MSE和L1。用L1损失时,因为L1对x的导数是常数,导致在训练到生成图片与ground truth很接近时,模型很难继续收敛(学习率已经调到极小);用MSE作损失时,在训练初期,由于MSE对离群点比较敏感,刚开始训练时有可能对网络的反向指导出现错误,甚至把网络训练飞。于是对传统的smooth L1做了以下改变:

smooth_{L1_my}(x,th) =\left\{\begin{matrix} 0.5x^{2}} } \:\:\:\:\:\:\:\:\:\:if |x| < th} & \\ |x| - 0.5\:\:\:\:\: otherwise& \end{matrix}\right.

引入th参数,当生成图像与ground truth比较相近时,采用0.5x^{2}作为损失,以进一步收敛,否则,采用|x| - 0.5

pytorch代码如下:

def smooth_l1_loss_my(input, target, th = 1./128):
    # type: (Tensor, Tensor) -> Tensor
    t = torch.abs(input - target)
    return torch.where(t < th, 0.5 * t ** 2, t - 0.5)

我本人实验的结果是用了改进的smooth L1损失后,重构图片的指标相对于L1(一开始我一直在用L1损失)有明显提升。

 

 

 

  • 0
    点赞
  • 13
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值