机器学习 之评估指标 召回率,查准率,F1分数(f1值)

1、召回率:评价模型的完整性

预测样本中的预测正确的信息条数/总样本中所有的属于这类样本的信息条数 举例:
将虾预测为虾TP:
将鱼预测为鱼 FP:
将虾预测为鱼 FN:
将鱼预测虾 TN:

将虾预测为虾 召回率R = TP/(TP+FN) (正确预测虾的信息条数/原样本中所有虾的信息条数)

2、查准率(精确率):评价模型的正确性

查准率(精确率):某一类 预测样本中的预测正确的信息条数/预测样本中所有预测为此类的信息数
查准率P = TP/(TP+FP) 不同于正确率
正确率:所有预测正确样本除以所有预测样本
准确率 = (TP+TN)/(TP+FP+FN+TN)

3、F1分数:

F1分数可以看作模型的查准率与召回率的加权平均 它的取值范围在
【0-1】 值越大说明模型越好。
例如:
有100个样本,其中1个正样本,99个负练样本,如果模型的预测输出只有0 ,那么正确率是99%,如果单单用查准率来衡量模型的好坏是具有偏见性的。
在这里插入图片描述
因为 0<召回率R<1
0<准确率P<1
所以 2*(R*P)<R+P
从而得到 取值范围为(0,1】

### 准确性的定义和含义 准确性(Accuracy)是指分类器做出的正确预测占总预测的比例。对于二元分类问题,准确性可以通过下述公式计算: \[ \text{Accuracy} = \frac{\text{TP} + \text{TN}}{\text{TP} + \text{FP} + \text{FN} + \text{TN}} \] 其中 TP 表示真正类(True Positive),TN 表示真负类(True Negative),FP 表示假正类(False Positive),而 FN 则表示假负类(False Negative)。然而,在类别分布极不平衡的数据集中,高准确性可能并不代表模型性能良好。 ### 召回率的定义和含义 召回率(Recall),也称为灵敏度或真正类率(True Positive Rate, TPR),衡量的是实际为正样本中被正确识别出来的比例: \[ \text{Recall (Sensitivity)} = \frac{\text{TP}}{\text{TP}+\text{FN}} \] 这个比率越高说明漏检越少;但是高的召回率可能会带来更多的误报[^1]。 ### 精确度的定义和含义 精确度(Precision),有时也被叫做查准率,指的是所有预测为正向的结果中有多少是真的正向实例: \[ \text{Precision} = \frac{\text{TP}}{\text{TP}+\text{FP}} \] 较高的精确度意味着较少的错误警报,即当系统说某事发生时它确实发生的概率较大[^2]。 ### F1分数的定义和含义 F1分数是精确度和召回率之间的一种折衷措施,它是两者调和平均数而非简单的算术均。因此,即使其中一个分量很低也会显著影响最终得分。具体表达如下所示: \[ F_1 = 2 * (\frac{\text{precision}*\text{recall}}{\text{precision}+\text{recall}}) \] 这种特性使得F1特别适合用来评价那些对两类误差都有严格要求的任务,尤其是在处理不平衡数据集的情况下更为有用[^3]。 ### 公平性指标的定义和含义 公平性是一个更广泛的概念,涉及到算法决策过程及其结果是否公正对待不同群体。在机器学习领域内,存在多种方式去量化这一属性,比如统计奇偶差、平等机会差距等。这些方法试图捕捉到模型是否存在针对某些特征(如性别、种族)的不同待遇现象。得注意的是,“完美”的公平往往是难以实现的目标,因为不同的公平标准之间可能存在冲突,并且如何界定什么是“公平”本身就是一个复杂的社会议题[^4]。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值