使用sklearn计算分类问题的auc

sklearn.metrics.roc_auc_score()的使用方法

sklearn.metrics.roc_auc_score(y_true, y_score, *, average='macro', sample_weight=None, max_fpr=None, multi_class='raise', labels=None)[source])

输入参数:

y_true:数据的真实标签。 二分类问题时,该参数维度为(n_samples,1);多分类问题时,该参数维度为(n_samples, n_classes),其中n_classes为类别数量。
**y_score:目标分数,即数据的预测标签分数。**二分类问题时,该参数维度为(n_samples,1),分数是样本属于具有较大标签的类的分数;多分类问题时,该参数维度为(n_samples, n_classes),score的顺序必须跟label的顺序相同。
**average:用于多分类。**取值为‘macro’、‘weighted’、‘micro’、‘samples’或者None。’ macro ‘:计算每个标签的指标,并找到它们的未加权平均值。不考虑样本类别是否平衡。’ weighted ':计算每个标签的指标,并找到它们的平均值,对(每个标签的真实实例的数量)进行加权。
**sample_weight:样本权重。**该参数维度为(n_samples,1),默认为None。
**max_fpr:取值为(0,1],默认为None。**当取值非None时,返回在[0,max_fpr]范围内的标准化部分AUC。对于多分类问题,max_fpr必须为None或者1.0.
**multi_class:仅用于多分类问题,确定要使用的配置类型。**取值为‘raise’, ‘ovr’, ‘ovo’。默认为raise,默认值会引发错误。‘ovr’:对类别不平衡比较敏感,就是把一类当做正样本,其他类别都是负样本; ‘ovo’:对类别不平衡不敏感,将某一个类别A跟其他类组合,以A为正例,跟他组合的类别为负例,计算auc,最后取平均。即一对一,比如其他类别有B、C、D,则有AvsB AvsC AvsD,计算得到的auc取平均值作为最终结果。
**labels:仅用于多分类问题。为y_score中的类别的标签列表。**该参数维度为(n_classes,1)。若取值为None,则使用y_true中标签的数字顺序或字典顺序。

输出:

**auc分数:即曲线下积分分数。**取值为float类型。

  • 1
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值