深度学习损失函数:交叉熵cross entropy与focal loss

本文深入探讨交叉熵和Focal Loss。交叉熵用于衡量概率分布之间的差异,常用于深度学习的损失函数。Focal Loss为了解决训练样本不平衡和难例学习问题,通过调整损失项权重,降低已正确分类样本的损失,重点聚焦在难例上。Focal Loss的引入显著提升了目标检测任务的性能。
摘要由CSDN通过智能技术生成

前面

本文主要做两件事情:

1.交叉熵原理

2.引出focal loss原理

其中,交叉熵这里:https://blog.csdn.net/tsyccnh/article/details/79163834

这篇博文写的很详细,很明白,但博士没有总结,我在这里按自己理解重新总结了下,看不太明白的读者建议直接看原文会明白很多。focal的几篇参考:

论文链接:https://arxiv.org/abs/1708.02002 

https://blog.csdn.net/u014380165/article/details/77019084

https://blog.csdn.net/dreamer_on_air/article/details/78187565

以下是个人对交叉熵-focal loss的理解汇总,欢迎指正。

一、cross entropy

1 信息量

信息论中有:当越不可能的事件发生了,我们获取到的信息量就越大。越可能发生的事件发生了,我们获取到的信息量就越小。那么信息量应该和事件发生的概率有关。

注意文中的对数函数的底均为自然数e

2 熵

考虑另一个问题,对于某个事件,有n种可能性,每一种可能性都有一个概率P(x_{_{i}})
我们现在有了信息量的定义,而熵用来表示所有信息量的期望,即:

不管单类还是多类图像分类以及目标识别问题,均可以看做0-1分布问题(二项分布的特例),对于这类问题,熵的计算方法可以简化为如下算式:

评论 2
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值