推荐系统评测指标—准确率(Precision)、召回率(Recall)、F值(F-Measure)

下面简单列举几种常用的推荐系统评测指标:

1、准确率与召回率(Precision & Recall)

准确率和召回率是广泛用于信息检索和统计学分类领域的两个度量值,用来评价结果的质量。其中精度是检索出相关文档数与检索出的文档总数的比率,衡量的是检索系统的查准率;召回率是指检索出的相关文档数和文档库中所有的相关文档数的比率,衡量的是检索系统的查全率。

一般来说,Precision就是检索出来的条目(比如:文档、网页等)有多少是准确的,Recall就是所有准确的条目有多少被检索出来了。

正确率、召回率和 F 值是在鱼龙混杂的环境中,选出目标的重要评价指标。不妨看看这些指标的定义先:

1. 正确率 = 提取出的正确信息条数 /  提取出的信息条数     

2. 召回率 = 提取出的正确信息条数 /  样本中的信息条数    

两者取值在0和1之间,数值越接近1,查准率或查全率就越高。

3. F值  = 正确率 * 召回率 * 2 / (正确率 + 召回率) (F 值即为正确率和召回率的调和平均值)

不妨举这样一个例子:某池塘有1400条鲤鱼,300只虾,300只鳖。现在以捕鲤鱼为目的。撒一大网,逮着了700条鲤鱼,200只虾,100只鳖。那么,这些指标分别如下:

正确率 = 700 / (700 + 200 + 100) = 70%

召回率 = 700 / 1400 = 50%

F值 = 70% * 50% * 2 / (70% + 50%) = 58.3%

不妨看看如果把池子里的所有的鲤鱼、虾和鳖都一网打尽,这些指标又有何变化:

正确率 = 1400 / (1400 + 300 + 300) = 70%

召回率 = 1400 / 1400 = 100%

F值 = 70% * 100% * 2 / (70% + 100%) = 82.35%

由此可见,正确率是评估捕获的成果中目标成果所占得比例;召回率,顾名思义,就是从关注领域中,召回目标类别的比例;而F值,则是综合这二者指标的评估指标,用于综合反映整体的指标。

当然希望检索结果Precision越高越好,同时Recall也越高越好,但事实上这两者在某些情况下有矛盾的。比如极端情况下,我们只搜索出了一个结果,且是准确的,那么Precision就是100%,但是Recall就很低;而如果我们把所有结果都返回,那么比如Recall是100%,但是Precision就会很低。因此在不同的场合中需要自己判断希望Precision比较高或是Recall比较高。如果是做实验研究,可以绘制Precision-Recall曲线来帮助分析。
2、综合评价指标(F-Measure)

P和R指标有时候会出现的矛盾的情况,这样就需要综合考虑他们,最常见的方法就是F-Measure(又称为F-Score)。

F-Measure是Precision和Recall加权调和平均:
这里写图片描述

当参数α=1时,就是最常见的F1,也即
这里写图片描述

可知F1综合了P和R的结果,当F1较高时则能说明试验方法比较有效。
3、E值

E值表示查准率P和查全率R的加权平均值,当其中一个为0时,E值为1,其计算公式:

这里写图片描述

b越大,表示查准率的权重越大。

4、平均正确率(Average Precision, AP)

平均正确率表示不同查全率的点上的正确率的平均。

原文链接:http://blog.csdn.net/taohuaxinmu123/article/details/9833001

YOLOv8(You Only Look Once Version 8)是一个先进的目标检测算法,它评估指标主要包括准确率、精确率、召回率和F1分数(也称为F1-measure)。这里简要解释一下: 1. **准确率(Accuracy)**: 表示模型预测正确的样本数占总样本数的比例。即 TP + TN / (TP + TN + FP + FN),其中 TP(True Positive)是真正例,TN(True Negative)是真负例,FP(False Positive)是假正例,FN(False Negative)是假负例。 2. **精确率(Precision)**: 也称作精度,衡量的是模型预测为正类别的样本中有多少是真正的正类别。即 TP / (TP + FP)。 3. **召回率Recall)**: 又叫查准率,表示实际为正例的样本中,模型正确识别出来的比例。即 TP / (TP + FN)。 4. **F1-Measure** 或 F1 Score: 是精确率和召回率的调和平均,综合考虑了两者。公式为 2 * Precision * Recall / (Precision + Recall)。当模型希望既减少误报(高精确率)又减少漏报(高召回率)时,F1分数是个好选择。 在YOLOv8中,通常会通过训练过程中的验证集或测试集计算这些指标,以便优化模型性能。在Python的`sklearn.metrics`库中可以找到计算这些指标的方法,例如`accuracy_score`, `precision_score`, 和 `recall_score`。以下是一个简单的例子,展示如何使用这些函数: ```python from sklearn.metrics import accuracy_score, precision_score, recall_score, f1_score # 假设我们有真实标签(y_true)和预测结果(y_pred) y_true = [...] y_pred = [...] # 计算准确率 accuracy = accuracy_score(y_true, y_pred) # 精确率 precision = precision_score(y_true, y_pred, average='weighted') # 'weighted'适用于不平衡数据 # 召回率 recall = recall_score(y_true, y_pred, average='weighted') # F1分数 f1_measure = f1_score(y_true, y_pred, average='weighted') print(f"Accuracy: {accuracy}") print(f"Precision: {precision}") print(f"Recall: {recall}") print(f"F1 Measure: {f1_measure}") ```
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值