Keras/TensorFlow 交叉熵损失函数中的 from_logits 参数


1. from_logits 的两种使用方法。

在 Keras 的二元交叉熵损失函数(tf.keras.losses.BinaryCrossentropy,下面简称为 bce)中,有 from_logits 这个参数。在使用时需要分下面 2 种情况:

  1. 如果输入给 bce 的是一个 logit 值(值域范围 [-∞, +∞] ),则应该设置 from_logits=True 。
  2. 如果输入给 bce 的是一个概率值 probability (值域范围 [0, 1] ),则应该设置为 from_logits=False 。

两种使用方法的对比如下图。
两种使用方法的对比
从上面的对比图可以看出,from_logits=True 是一个简便操作,它让使用者省去了转换概率这个步骤。

2. 交叉熵的底层操作。

在计算交叉熵时,实际要经过 2 个步骤:1. 把数值转换为概率值。2. 对这个概率值取对数,得到交叉熵。如下图。
交叉熵的底层操作

3. logit 与 sigmoid 互为反函数。

实际上,logit 是一个函数,并且它和 sigmoid 互为反函数。sigmoid 会把 logit 值转换为 [0, 1] 之间的概率值,而 logit 则会把概率值转换为 [-∞, +∞] 之间的 logit 值。
在 Scipy 中,sigmoid 函数也叫做 expit 函数。下图是 sigmoid 和 logit 函数的对比。关于 sigmoid 函数的更多内容,详见 Scipy 链接 → Scipy 的 sigmoid 函数页面链接
expit 函数
最后,Keras 中的多类别交叉熵损失函数 Categorical Crossentropy,也有 from_logits 这个参数,其使用方法和二元交叉熵损失函数相同。不过因为它处理的是多分类问题,在计算概率时,要用 softmax 函数。

  • 12
    点赞
  • 24
    收藏
    觉得还不错? 一键收藏
  • 4
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 4
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值