损失函数总结

参考

  1. 损失函数loss大大总结
  2. Tensorflow 中的损失函数 —— loss 专题汇总
  3. 论文Focal Loss for Dense Object Detection
  4. 5分钟理解Focal Loss与GHM——解决样本不平衡利器
  5. 论文GHM:Gradient Harmonized Single-Stage Detector

损失函数

  • tf.nn.sigmoid_cross_entropy_with_logits(labels=None, logits=None, name=None)。二分类和多标签都是用此损失函数。多标签问题,可以同时有多个标签。
  • tf.nn.sparse_softmax_cross_entropy_with_logits(labels, logits, name=None)。
  • tf.nn.softmax_cross_entropy_with_logits(labels, logits, axis=-1, name=None)。与sparse_softmax_cross_entropy_with_logits的区别,由于softmax_cross_entropy_with_logits允许提供一个概率分布,因此在使用时有更大的自由度。举个例子,一种叫label_smoothing的技巧将正确数据的概率设为一个比1.0略小的值,将错误的该概率设置为一个比0.0略大的值,这样可以避免模型与数据过拟合,在某些时候可以提高训练效果。
  • 类别不平衡问题?用类别权重。
  • 难易样本不平衡问题?方法1,用Focal loss,易分样本权重小,难分样本权重大。方法2,使用GHM,按照梯度密度GD对易分样本和离群点同时降权。
    focal loss 公式
    梯度密度公式
    GHM损失函数公式
  • 离群点问题?使用GHM。有些难分样本损失函数梯度大、数量多,可能是样本标注结果本身有问题,属于离群点,不应该过多关注,对这些样本按照梯度密度降权。

疑问

  • tf.losses.log_loss的意义?
  • 多分类的损失函数?
  • 多标签的损失函数?
  • 有序多分类的损失函数?
  • pair wise损失函数?
  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

xxaxtt

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值