评价指标——精确度,召回率,真阳率,假阳率,P-R曲线,ROC曲线,AUC

1.定义

精确度(precision)/查准率:TP/(TP+FP)=TP/P    预测为真中,实际为正样本的概率

召回率(recall)/查全率:TP/(TP+FN)  正样本中,被识别为真的概率

假阳率(False positive rate):FPR = FP/(FP+TN)  负样本中,被识别为真的概率

真阳率(True positive rate):TPR = TP/(TP+FN)  正样本中,能被识别为真的概率

准确率(accuracy):ACC =(TP+TN)/(P+N) 所有样本中,能被正确识别的概率

宏查X率:先计算查X率,后计算平均

微查X率:先计算TP等平均,后计算查X率

丢失率(missrate )/漏警率:MA = 1-recall=FN/(TP+FN)

虚警率(FalseAlarm ):FA=FP/(FP+TP)

ground truch:TP+FN

model result:TP+FP

P:precision,预测正确的个数/测试总个数

AP:average precision,每一类别P值的平均值

MAP:mean average precision,对所有类别的AP取均值</

  • 5
    点赞
  • 38
    收藏
    觉得还不错? 一键收藏
  • 3
    评论
cross_val_score函数是用于交叉验证的一个函数,主要用于评估模型的性能。在机器学习领域中,为了准确评估一个模型在未知数据上的性能,我们通常使用交叉验证的方法。 假阳率(False Positive Rate)和真阳率(True Positive Rate)是在二分类问题中用来评估模型性能的指标之一。假阳率是指在实际为负例的样本中被错误地预测为正例的比例,也可以称为误报率;真阳率是指在实际为正例的样本中被正确地预测为正例的比例,也可以称为召回率或灵敏度。 cross_val_score函数通过交叉验证的方法,将数据集划分为若干个子集,依次使用其中一个子集作为验证集,剩余的子集作为训练集。然后对每次划分的模型进行训练和预测,并将预测结果与真实结果进行比较,从而得到模型在每次验证集上的性能指标。 cross_val_score函数默认使用的性能指标是准确率(Accuracy),即正确预测样本的比例。但是可以通过传递不同的scoring参数来计算其他指标,如假阳率真阳率等。在sklearn.metrics模块中,有相应的函数可以计算这些指标,例如roc_auc_score可以计算真阳率假阳率。 综上所述,通过使用cross_val_score函数,并指定计算假阳率真阳率的方法,可以得到模型在每次交叉验证的数据集上的假阳率真阳率。这些指标可以帮助我们更全面地评估模型的性能,从而选择最优模型或调整模型参数。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 3
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值