python 中,sklearn包下的f1_score、precision、recall使用方法,Accuracy、Precision、Recall和F1-score公式,TP、FP、TN、FN的概念

目录

1.sklearn.metrics.f1_score

2.sklearn.metrics.precision_score

3.sklearn.metrics.recall_score

4.Accuracy,、Precision、 Recall和F1-score公式​​​​​​​

5.TP、FP、TN、FN的概念


sklearn.metrics.f1_score官网链接sklearn.metrics.f1_score — scikit-learn 1.0.2 documentation

sklearn.metrics.f1_score(y_true, y_pred, *, labels=None, pos_label=1, 
average='binary', sample_weight=None, zero_division='warn')

重要参数说明:

y_true:一维数组,或标签指示数组/稀疏矩阵 (真实值)

y_pred:一维数组,或标签指示数组/稀疏矩阵 (预测值)

pos_label:str or int, default=1

                  报告是否average='binary'且数据为binary的类。如果数据是多类或多标签的,这将                          被忽略;设置labels=[pos_label]和average != 'binary'将只报告该标签的分数。

average:{‘micro’, ‘macro’, ‘samples’,’weighted’, ‘binary’} or None, default=’binary’

                多类/多标签目标时需要此参数。如果为None,则返回每个类的分数。否则,这决定了对数据进行平均的类型:

        “binary”: 只报告由pos_label指定的类的结果。这只适用于目标(y_{true,pred})是二进制的情况。

        “micro”: 通过计算总真阳性、假阴性和假阳性来全局计算指标。

        “macro”: 计算每个标签的度量,并找到它们的未加权平均值。这还没有考虑到标签的不平衡。

         “weighted”:  计算每个标签的指标,并根据支持找到它们的平均权重(每个标签的真实实例数)。这改变了“宏观”的标签不平衡;它会导致一个不介于准确率和召回率之间的f值。

         “samples”:  为每个实例计算指标,并找到它们的平均值(仅对与accuracy_score不同的多标签分类有意义)。

sample_weight:array-like of shape (n_samples,), default=None

           样本的权重

zero_division:“warn”, 0 or 1, default=”warn”

                设置除法为零时返回的值,即所有预测和标签为负数时返回。如果设置为" warn ",这将充当0,但也会引发警告。

返回值:

f1_score:float or array of float, shape = [n_unique_labels]
         二分类中正类的F1分,
         或多类任务中,每个类的F1分的加权平均。

示例:

from sklearn.metrics import f1_score

y_true = [0, 1, 1, 1, 2, 2]
y_pred = [0, 1, 1, 2, 1, 2]

macro_f1 = f1_score(y_true, y_pred, average='macro')

micro_f1 = f1_score(y_true, y_pred, average='micro')

weighted_f1= f1_score(y_true, y_pred, average='weighted')

None_f1 = f1_score(y_true, y_pred, average=None)

print('macro_f1:',macro_f1,'\nmicro_f1:',micro_f1,'\nweighted_f1:',
      weighted_f1,'\nNone_f1:',None_f1)

输出结果:

macro_f1: 0.7222222222222222
micro_f1: 0.6666666666666666
weighted_f1: 0.6666666666666666
None_f1: [1.   0.66666667   0.5  ]

sklearn.metrics.precision_score官网链接

sklearn.metrics.precision_score — scikit-learn 1.1.1 documentation

sklearn.metrics.precision_score(y_true, y_pred, *, labels=None, pos_label=1, 
average='binary', sample_weight=None, zero_division='warn')

重要参数意义与f1-score类似

代码实例:

>>> from sklearn.metrics import precision_score
>>> y_true = [0, 1, 2, 0, 1, 2]
>>> y_pred = [0, 2, 1, 0, 0, 1]
>>> precision_score(y_true, y_pred, average='macro')
0.22...
>>> precision_score(y_true, y_pred, average='micro')
0.33...
>>> precision_score(y_true, y_pred, average='weighted')
0.22...
>>> precision_score(y_true, y_pred, average=None)
array([0.66..., 0.        , 0.        ])
>>> y_pred = [0, 0, 0, 0, 0, 0]
>>> precision_score(y_true, y_pred, average=None)
array([0.33..., 0.        , 0.        ])
>>> precision_score(y_true, y_pred, average=None, zero_division=1)
array([0.33..., 1.        , 1.        ])
>>> # multilabel classification
>>> y_true = [[0, 0, 0], [1, 1, 1], [0, 1, 1]]
>>> y_pred = [[0, 0, 0], [1, 1, 1], [1, 1, 0]]
>>> precision_score(y_true, y_pred, average=None)
array([0.5, 1. , 1. ])

sklearn.metrics.recall_score官网链接 

sklearn.metrics.recall_score — scikit-learn 1.1.1 documentation

sklearn.metrics.recall_score(y_true, y_pred, *, labels=None, pos_label=1, 
average='binary',sample_weight=None, zero_division='warn')

 重要参数意义与f1-score类似

代码实例:

>>> from sklearn.metrics import recall_score
>>> y_true = [0, 1, 2, 0, 1, 2]
>>> y_pred = [0, 2, 1, 0, 0, 1]
>>> recall_score(y_true, y_pred, average='macro')
0.33...
>>> recall_score(y_true, y_pred, average='micro')
0.33...
>>> recall_score(y_true, y_pred, average='weighted')
0.33...
>>> recall_score(y_true, y_pred, average=None)
array([1., 0., 0.])
>>> y_true = [0, 0, 0, 0, 0, 0]
>>> recall_score(y_true, y_pred, average=None)
array([0.5, 0. , 0. ])
>>> recall_score(y_true, y_pred, average=None, zero_division=1)
array([0.5, 1. , 1. ])
>>> # multilabel classification
>>> y_true = [[0, 0, 0], [1, 1, 1], [0, 1, 1]]
>>> y_pred = [[0, 0, 0], [1, 1, 1], [1, 1, 0]]
>>> recall_score(y_true, y_pred, average=None)
array([1. , 1. , 0.5])

Accuracy、Precision、Recall和F1-score公式:

Acccuracy = \frac{TP+TN}{TP+FN+FP+TN}

Precision = \frac{TP}{TP+FP}

Recall = \frac{TP}{TP+FN}

F1-score = \frac{2*(Precision*Recall)}{Precision+Recall}

TP、FP、TN、FN的概念:

TP(True Positive):预测为正,预测结果是正确的

FP(False Positive):预测为正,预测结果是错误的

TN(True Negative):预测为负,预测结果是正确的

FN(False Negative):预测为负,预测结果是错误的

YOLOv8(You Only Look Once Version 8)是一个先进的目标检测算法,它评估指标主要包括准确率、精确率、召回率F1分数(也称为F1-measure)。这里简要解释一下: 1. **准确率(Accuracy)**: 表示模型预测正确的样本数占总样本数的比例。即 TP + TN / (TP + TN + FP + FN),其中 TP(True Positive)是真正例,TN(True Negative)是真负例,FP(False Positive)是假正例,FN(False Negative)是假负例。 2. **精确率(Precision)**: 也称作精度,衡量的是模型预测为正类别的样本中有多少是真正的正类别。即 TP / (TP + FP)。 3. **召回率(Recall)**: 又叫查准率,表示实际为正例的样本中,模型正确识别出来的比例。即 TP / (TP + FN)。 4. **F1-Measure** 或 F1 Score: 是精确率召回率的调平均值,综合考虑了两者。公式为 2 * Precision * Recall / (Precision + Recall)。当模型希望既减少误报(高精确率)又减少漏报(高召回率)时,F1分数是个好选择。 在YOLOv8中,通常会通过训练过程中的验证集或测试集计算这些指标,以便优化模型性能。在Python的`sklearn.metrics`库中可以找到计算这些指标的方法,例如`accuracy_score`, `precision_score`, `recall_score`。以下是一个简单的例子,展示如何使用这些函数: ```python from sklearn.metrics import accuracy_score, precision_score, recall_score, f1_score # 假设我们有真实标签(y_true)预测结果(y_pred) y_true = [...] y_pred = [...] # 计算准确率 accuracy = accuracy_score(y_true, y_pred) # 精确率 precision = precision_score(y_true, y_pred, average='weighted') # 'weighted'适用于不平衡数据 # 召回率 recall = recall_score(y_true, y_pred, average='weighted') # F1分数 f1_measure = f1_score(y_true, y_pred, average='weighted') print(f"Accuracy: {accuracy}") print(f"Precision: {precision}") print(f"Recall: {recall}") print(f"F1 Measure: {f1_measure}") ```
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值