边框回归的损失函数_分类损失函数,边框回归损失函数

本文介绍了边框回归中的损失函数,包括交叉熵损失和Smooth L1损失。交叉熵适用于分类任务,能确保误差较大时权值调整快;Smooth L1损失则用于限制梯度变化,防止在预测框与真实框偏差较大或小时梯度过大或过小。
摘要由CSDN通过智能技术生成

(1)交叉熵损失函数

蔡杰:简单的交叉熵,你真的懂了吗?​zhuanlan.zhihu.com
b3724ad1f71155fc2dbc128278304b62.png

1.1信息量

一条信息的信息量大小和他的不确定性有很大的关系,需要很多外部信息才能确定的信息,我们称之为这计划的信息量很大。

我们将事件x0的信息量定义如下,(其中p(x0)表示事件x0发生的概率:则信息量定义为:

6139a2320c6e85a643d9b84e4db94f4d.png
由图像可以看出,事件发生的概率越大,包含的信息量越少

1.2熵的概念

信息量是针对单个事件来说的,但是一件事有多种发生的可能,掷色子可能就有六种情况发生。因此熵表示的的是随机变量不确定的度量,是对所有可能事件产生的信息量的期望。

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值