(28)语义分割--cross-entropy loss和OhemCELoss

1、主要参考

(1)大佬写的很好

https://www.jianshu.com/p/24376b18e5c7

(2)二分类和多分类大佬写的很好

交叉熵损失函数_沙子是沙子的博客-CSDN博客_交叉熵损失函数

二分类交叉熵,多分类交叉熵,focal loss_jzdl的博客-CSDN博客_二分类交叉熵

(3)二分类的定义和实现

PyTorch学习笔记——二分类交叉熵损失函数 - 知乎

(4)softmax和sigmod的关系见下面,写得很好

Softmax和Sigmoid函数的区别_ciki_tang的博客-CSDN博客_softmax和sigmoid

(5)其它概念参考

Sigmoid函数_百度百科

2、什么是熵

参考某度

https://baike.baidu.com/item/%E7%86%B5/19190273?fr=aladdin

信息熵_百度百科

(1)熵 [shāng],(英语:entropy)。泛指某些物质系统状态的一种量度,某些物质系统状态可能出现的程度。熵的概念是由德国物理学家克劳修斯于1865年提出。1923年,德国科学家普朗克(Planck)来中国讲学用到"entropy"这个词,胡刚复教授翻译时灵机一动,把“商”字加火旁来意译“entropy”这个字,创造了“熵”字(拼音:shāng)。

(2)1948年,香农将统计物理中熵的概念,引申到信道通信的过程中,从而开创了”信息论“这门学科。香农定义的“熵”又被称为“香农熵”或“信息熵”,即

    其中 i 标记概率空间中所有可能的样本,pi 表示该样本的出现几率,K是和单位选取相关的任意常数。

(3)上述公式中,如果i有32个取值范围,假设其中,p1,p2 , ...,p32 分别是这 32 个球队夺冠的概率。

               S = -(p1*log(2,p1) + p2 * log(2,p2) + ... +p32 *log(2,p32))

注意:当所有样本等几率出现的情况下,熵达到最大值。

3、Sigmoid函数和二分类交叉熵

3.1 sigmoid函数 

(1)sigmoid的函数如下图所示

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
### 回答1: 交叉熵损失(Cross-entropy loss)是一种常见的用于训练分类模型的损失函数。它是通过比较模型输出的概率分布和真实标签的概率分布来计算模型预测的错误率的。当模型输出的概率分布与真实标签的概率分布接近时,交叉熵损失函数的值较小,说明模型的预测更准确。交叉熵损失函数通常与梯度下降等优化算法一起使用,用于更新模型的参数,使得模型能够更好地预测数据的标签。 ### 回答2: 交叉熵损失函数(Cross-entropy loss)是在机器学习和深度学习领域中常用的一种损失函数,用于衡量预测值与真实值之间的差异。 交叉熵损失函数基于信息论中的交叉熵概念,主要用于分类问题。对于一个多类别分类问题,假设有C个类别,每个样本都有一个真实的标签yi(0 ≤ i ≤ C-1)。对于每个样本,模型给出了一个预测结果pi(0 ≤ i ≤ C-1),表示模型对每个类别的概率估计。 交叉熵损失函数通过比较真实标签yi和预测结果pi的概率分布,来衡量两者之间的差异。具体计算方式为:将每个真实标签的概率取对数,然后乘以对应的预测结果的概率,最后取负数。将所有类别的交叉熵损失值求和,即可得到最终的损失值。 交叉熵损失函数的数学公式为:L = -∑yi*log(pi),其中yi为真实标签的概率,pi为预测结果的概率。当预测结果与真实标签越接近时,交叉熵损失值越小。 交叉熵损失函数在深度学习中的应用非常广泛,特别是在分类任务中。通过最小化交叉熵损失函数,可以使模型的预测结果尽可能地接近真实标签,从而提高模型的准确率。由于交叉熵损失函数具有较好的数学性质,使用梯度下降等优化算法可以有效地求解最优解。 总之,交叉熵损失函数是一种用于分类问题的常用损失函数,通过衡量预测结果与真实标签之间的差异,可以帮助优化模型并提高预测准确性。 ### 回答3: 交叉熵损失函数是一种用于评估分类模型的损失函数。在机器学习和深度学习中,我们经常使用交叉熵损失函数来衡量预测结果与实际结果之间的差异。 交叉熵损失函数的计算方式是基于预测结果的概率分布和实际结果的分布之间的差异。它可以帮助我们计算出模型预测的结果与真实结果之间的距离。在分类问题中,交叉熵损失函数可以帮助我们评估模型的预测结果与实际结果之间的差异程度,越小表示模型的预测结果越接近实际结果。 交叉熵损失函数的计算公式如下: L = - sum(y * log(y_hat)) 其中,y是实际结果的概率分布,y_hat是模型预测的结果的概率分布。log表示对数函数。对于多分类问题,y和y_hat都是长度为类别数目的向量,代表了每个类别的概率。sum表示对向量中的所有元素求和。 交叉熵损失函数的优点是它可以对概率分布进行考量,而不仅仅关注预测结果的正确与否。相比于其他损失函数,如均方差损失函数,交叉熵损失函数在分类问题中更为常用。它能够帮助我们更好地解决多分类问题,提高模型的准确性。 总之,交叉熵损失函数是一种用于分类模型的损失函数,可以帮助我们计算出预测结果和实际结果之间的差异程度。它是深度学习中常用的一种损失函数,能够提高模型的性能和准确性。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值