如何理解Precision和Recall?

 

F1值,就是综合考虑了precision和recall

F1 = 2*precision*recall/(precision+recall)

准确率(Accuracy), 

在给定的测试数据集上,正确分类的样本占总样本的比例。

精确率(Precision), 

 在给定的测试数据集上,正确分类的样本中,分类结果为正样本所占的比例。

召回率(Recall):

在给定的测试数据集上,分类结果为正样本的集合中,正确分类的样本所占的比例。和灵敏度一个概念,灵敏度(表示的是所有正例中被分对的比例,衡量了分类器对正例的识别能力。)

F1-Measure

P和R指标有时候会出现的矛盾的情况,这样就需要综合考虑他们,最常见的方法就是F-Measure(又称为F-Score)。
F-Measure是Precision和Recall加权调和平均:

如何拓展到多分类问题上?

1、宏平均的方案,即分别计算每一类的precision和recall;

2、另外一种,我不理解,感觉意义不大。

--------------------------------------------

Python如何计算多类的Precision和Recall,以及F1值?

from sklearn.metrics import accuracy_score,precision_score, recall_score, f1_score
import numpy as np

y_true = np.array([],dtype='int64')
y_pred = np.array([],dtype='int64')
accuracy = accuracy_score(y_true, y_predict)
precision = precision_score(y_true, y_predict, average='macro')
recall = recall_score(y_true, y_predict, average='macro')
f1 = f1_score(y_true, y_predict, average='macro')

print("accuracy is {}, Precision is {}, Recall is {} and F1 is {}".format(accuracy, precision, recall, f1))

多分类ROC曲线的绘制没有没有必要?

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值