sklearn.metrics.roc_auc_score()的使用方法
sklearn.metrics.roc_auc_score(y_true, y_score, *, average='macro', sample_weight=None, max_fpr=None, multi_class='raise', labels=None)[source])
输入参数:
y_true:数据的真实标签。 二分类问题时,该参数维度为(n_samples,1);多分类问题时,该参数维度为(n_samples, n_classes),其中n_classes为类别数量。
**y_score:目标分数,即数据的预测标签分数。**二分类问题时,该参数维度为(n_samples,1),分数是样本属于具有较大标签的类的分数;多分类问题时,该参数维度为(n_samples, n_classes),score的顺序必须跟label的顺序相同。
**average:用于多分类。**取值为‘macro’、‘weighted’、‘micro’、‘samples’或者None。’ macro ‘:计算每个标签的指标,并找到它们的未加权平均值。不考虑样本类别是否平衡。’ weighted ':计算每个标签的指标,并找到它们的平均值,对(每个标签的真实实例的数量)进行加权。
**sample_weight:样本权重。**该参数维度为(n_samples,1),默认为None。
**max_fpr:取值为(0,1],默认为None。**当取值非None时,返回在[0,max_fpr]范围内的标准化部分AUC。对于多分类问题,max_fpr必须为None或者1.0.
**multi_class:仅用于多分类问题,确定要使用的配置类型。**取值为‘raise’, ‘ovr’, ‘ovo’。默认为raise,默认值会引发错误。‘ovr’:对类别不平衡比较敏感,就是把一类当做正样本,其他类别都是负样本; ‘ovo’:对类别不平衡不敏感,将某一个类别A跟其他类组合,以A为正例,跟他组合的类别为负例,计算auc,最后取平均。即一对一,比如其他类别有B、C、D,则有AvsB AvsC AvsD,计算得到的auc取平均值作为最终结果。
**labels:仅用于多分类问题。为y_score中的类别的标签列表。**该参数维度为(n_classes,1)。若取值为None,则使用y_true中标签的数字顺序或字典顺序。
输出:
**auc分数:即曲线下积分分数。**取值为float类型。