tensorflow sigmoid_cross_entropy_with_logits 函数解释及公式推导

tensorflow sigmoid_cross_entropy_with_logits 函数解释及公式推导

tensorflow官方文档解释参考

pytorch–BCELoss
pytorch–BCELoss解释参考

定义在tensorflow/python/ops/nn_impl.py.

功能:计算在给定logitslabel之间的sigmoid cross
entropy。测量离散分类任务中的概率误差,其中每个类是独立的,而不是相互排斥的。
例如,可以执行多标签分类,其中图片可以同时包含大象和狗。

通俗的解释是在进行分类任务时,计算我们得到的logits值(也有说scores分数值)与期望值(类别标签)label之间的差别。

tf.nn.sigmoid_cross_entropy_with_logits(
    _sentinel=None,
    labels=None,
    logits=None,
    name=None
)

计算公式:
交叉熵
这就是标准的Cross Entropy算法实现,对得到的值logits进行sigmoid激活,保证取值在0到1之间,然后放在交叉熵的函数中计算Loss。

公式推导:
为了简便, 让x = logits, z = labels. 上述公式可以写为:

  z * -log(sigmoid(x)) + (1 - z) * -log(1 - sigmoid(x))
= z * -log(1 / (1 + exp(-x))) + (1 - z) * -log(exp(-x) / (1 + exp(-x)))
= z * log(1 + exp(-x)) + (1 - z) * (-log(exp(-x)) + log(1 + exp(-x)))
= z * log(1 + exp(-x)) + (1 - z) * (x + log(1 + exp(-x))
= (1 - z) * x + log(1 + exp(-x))
= x - x * z + log(1 + exp(-x))

对于x < 0,为了避免exp(-x)中的溢出,我们重新制定了上面的公式:

  x - x * z + log(1 + exp(-x))
= log(exp(x)) - x * z + log(1 + exp(-x))
= log(exp(x)) - x * z + log((1 + exp(x)) / exp(x))
= log(exp(x)) - x * z + log(1 + exp(x) - log(exp(x))
= - x * z + log(1 + exp(x))

因此,为了保证稳定性和避免溢出,实现使用了这个等价的公式

max(x, 0) - x * z + log(1 + exp(-abs(x)))

logitslabels必须具有相同的类型和形状。
参数:

sentinel: 用于防止位置参数。内部,请勿使用。
labels: 与logits相同类型和形状的张量。
logits: 浮点型张量,32或64。
name: 操作的名称(可选)。

返回值:

一种形状与logits张量相同的张量,具有分量逻辑损失。
  • 2
    点赞
  • 6
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值