Logloss详解

定义:

− ( y log ⁡ ( p ) + ( 1 − y ) log ⁡ ( 1 − p ) ) -{(y\log(p) + (1 - y)\log(1 - p))} (ylog(p)+(1y)log(1p))

y y y表示样本的真实标签(1或0), p p p表示模型预测为正样本的概率。

可视化:

下图展示了lable=1时对数损失值的范围。当预测概率接近1时,对数损失缓慢下降。但随着预测概率的降低,对数损失迅速增加。对数损失对两种类型的错误都会进行处罚,尤其是那些置信度很高的错误预测!
在这里插入图片描述

Code:

def logloss(true_label, predicted_prob):
  if true_label == 1:
    return -log(predicted_prob)
  else:
    return -log(1 - predicted_prob)

一个样本集里正样本出现的概率为p,如果我们把每个样本的预测值都置为p,那么logloss是多少呢?

很显然
若p=0.1,logloss=0.325

若p=0.2,logloss=0.500

若p=0.3,logloss=0.611

若p=0.4,logloss=0.673

若p=0.5,logloss=0.693

若p=0.6,logloss=0.673

若p=0.7,logloss=0.611

若p=0.8,logloss=0.500

若p=0.9,logloss=0.325

所以最差的情况就是,正好是一半正样本一半负样本,此时你乱猜出的logloss是0.693。

所以只要loglss是在0.693以上,就说明模型是失败的。

Reference:

http://wiki.fast.ai/index.php/Log_Loss

http://sofasofa.io/forum_main_post.php?postid=1000508

  • 7
    点赞
  • 26
    收藏
    觉得还不错? 一键收藏
  • 4
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 4
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值