roc_auc_curve()和auc()结果不一样的问题

发现了一个问题,以下两种计算auc的结果不一样

import sklearn.metrics as sklm

sklm.roc_auc_score(val_log["label"],val_log["pred_label"])

fpr, tpr, _ = sklm.roc_curve(val_log["label"], val_log["pred_score"])
sklm.auc(fpr, tpr)

第一种在我自己的数据上的结果只有大约0.55,而第二种结果有0.70

仔细查阅文档后第一种的参数事实上是错的,第二个不应该是预测标签而应该是预测分数,但是由于score的范围在0-1之间,这种输入错误不会收到函数的报错,而且在某些情况下(例如模型性能很好或很差)两者计算结果可能非常接近,可参考下图

把第一种计算方法略微修改一下,结果就一样了

sklm.roc_auc_score(val_log["label"],val_log["pred_score"])

  • 10
    点赞
  • 10
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值