推荐模型评价指标 AUC

本文详细介绍了AUC作为推荐模型评价指标的含义,AUC的计算方法包括ROC曲线下的面积,并通过ROC曲线解释了不同阈值对真正类率和假正类率的影响,帮助理解AUC在衡量分类算法性能中的作用。
摘要由CSDN通过智能技术生成

推荐中常用的模型评价指标有准确率,召回率,F1-score和AUC。

1. 什么是AUC

AUC指标是一个[0,1]之间的实数,代表如果随机挑选一个正样本和一个负样本,分类算法将这个正样本排在负样本前面的概率。值越大,表示分类算法更有可能将正样本排在前面,也即算法准确性越好。

2. AUC的计算方法
  • 绘制ROC曲线,ROC曲线下面的面积就是AUC的值
  • 假设总共有(m+n)个样本,其中正样本有m个,负样本有n个,则共有m*n个样本对。如果正样本预测为正样本的概率值大于负样本预测为正样本的概率值记为1,反之为0,求和后除以(m*n)就是AUC的值
  • 对所有样本进行打分,按分数排序,第一名的rank为m+n,第二名的rank为m+n-1,往后依次递减,则 A U C = ∑ i ∈ 正 样 本 r a n k i − m ( 1 + m ) 2 m × n {AUC = \frac{\sum_{i \in 正样本} rank_i - \frac{m(1+m)}{2}}{m \times n}} AUC=m×ni
卷积神经网络(Convolutional Neural Network,CNN)是一种常用于图像处理和计算机视觉任务的深度学习模型。对于CNN模型评价指标,常见的包括以下几个方面: 1. 准确率(Accuracy):准确率是最常用的评价指标之一,表示模型在所有样本中正确分类的比例。计算公式为:准确率 = 正确分类的样本数 / 总样本数。 2. 精确率(Precision):精确率衡量了模型在预测为正类的样本中,真正为正类的比例。计算公式为:精确率 = 真正为正类的样本数 / 预测为正类的样本数。 3. 召回率(Recall):召回率衡量了模型在所有真正为正类的样本中,预测为正类的比例。计算公式为:召回率 = 真正为正类的样本数 / 所有真正为正类的样本数。 4. F1值(F1-score):F1值是精确率和召回率的调和平均值,综合考虑了模型的准确性和召回性能。计算公式为:F1值 = 2 * (精确率 * 召回率) / (精确率 + 召回率)。 5. ROC曲线和AUC值:ROC曲线是以假正例率(False Positive Rate,FPR)为横轴,真正例率(True Positive Rate,TPR)为纵轴绘制的曲线。AUC值(Area Under Curve)表示ROC曲线下的面积,用于评估模型的分类性能,AUC值越大表示模型性能越好。 6. 混淆矩阵(Confusion Matrix):混淆矩阵是一种可视化评价指标,用于展示模型在不同类别上的分类结果。它以真实类别和预测类别为基础,将样本分为真正例、假正例、真反例和假反例四个类别,可以直观地了解模型的分类情况。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值