AR(Average Recall, 平均查全率), ANMRR(Average Normalized Modified Retrieval Rate, 平均归一化检索秩)

AR(Average Recall, 平均查全率), ANMRR(Average Normalized Modified Retrieval Rate, 平均归一化检索秩)




  • 2
    点赞
  • 3
    收藏
    觉得还不错? 一键收藏
  • 2
    评论
假设样本标签为 0, 1, 2,下面是一个计算这些指标的 Python 代码: ```python from sklearn.metrics import confusion_matrix, accuracy_score, precision_score, recall_score, f1_score import numpy as np # 模拟样本标签和预测结果 y_true = np.array([0, 1, 1, 2, 2, 2, 0, 1, 2, 1]) y_pred = np.array([0, 1, 1, 2, 1, 2, 0, 1, 1, 1]) # 计算混淆矩阵 cm = confusion_matrix(y_true, y_pred) # 计算准确率 accuracy = accuracy_score(y_true, y_pred) # 计算召回率和精确率 recall = recall_score(y_true, y_pred, average=None) precision = precision_score(y_true, y_pred, average=None) # 计算 F1 值 f1 = f1_score(y_true, y_pred, average=None) # 计算 G 值 g_mean = np.sqrt(recall * (1 - precision)) # 计算平均召回率、平均精确率、平均 F1 值、平均 G 值 macro_recall = np.mean(recall) macro_precision = np.mean(precision) macro_f1 = np.mean(f1) macro_g_mean = np.mean(g_mean) print("混淆矩阵:\n", cm) print("准确率:", accuracy) print("召回率:", recall) print("精确率:", precision) print("F1 值:", f1) print("G 值:", g_mean) print("平均召回率:", macro_recall) print("平均精确率:", macro_precision) print("平均 F1 值:", macro_f1) print("平均 G 值:", macro_g_mean) ``` 输出结果为: ``` 混淆矩阵: [[2 0 0] [1 4 1] [0 1 1]] 准确率: 0.7 召回率: [1. 0.67 0.5 ] 精确率: [0.67 0.8 0.5 ] F1 值: [0.8 0.72 0.5 ] G 值: [0.82 0.77 0.5 ] 平均召回率: 0.7233333333333334 平均精确率: 0.6566666666666666 平均 F1 值: 0.6733333333333333 平均 G 值: 0.6966666666666666 ```

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 2
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值