交叉熵总览

在修改网络的时候遇到了几种交叉熵分别是:

  • torch.nn.functional.binary_cross_entropy
  • torch.nn.functional.cross_entropy
    接下来分别对其进行介绍

一、二分类交叉熵损失

torch.nn.functional.binary_cross_entropy其中的binary的意思就是二进制。适用于二分类问题,其中每个样本只能属于两个类别之一
下面举例说明:# 示例用法

loss = F.binary_cross_entropy(torch.sigmoid(output), target)

其中输入label的位置也就是上面torch.sigmoid(output)部分可以看出,这个位置的输入需要经过归一化,将值映射到0-1之间的对样本的预测。而target位置呢需要输入float的数据类型,表示真实标签。其运算公式是:
在这里插入图片描述

二、多分类交叉熵损失

torch.nn.functional.cross_entropy适合多分类问题。下面举例

loss = F.cross_entropy(output, target)

output位置的输入是模型输入的原始分数即可,不需要经过softmax的激活函数。输入的target即为样本的标签,要求其元素的数据类型为整数类型,表示每个样本的真实类别。
计算公式是:
在这里插入图片描述
总的来说,主要区别在于输入的形式和适用问题的类型。binary_cross_entropy 用于二分类问题,需要经过 sigmoid 激活函数,而 cross_entropy 用于多分类问题,不需要 softmax 激活函数。选择合适的函数取决于你的问题和模型的输出形式。

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值