机器学习中评价方法

经验误差和泛化误差

  • 经验误差=训练误差
  • 泛化误差=正式使用的误差 ≈ \approx 测试误差
  • 过拟合:经验误差小,泛化误差大
  • 欠拟合:经验误差大

错误率和精度

精度:
a c c = 1 m ∑ i = 1 m I ( f ( x i ) = y i ) ) acc=\frac1m\sum_{i=1}^m\mathbb{I}(f(x_i)=y_i)) acc=m1i=1mI(f(xi)=yi))
错误率=1-精度

查准率,查全率,F1

真实\预测
TPFN
FPTN
  • 查准率(precision):
    P = T P T P + F P P=\frac{TP}{TP+FP} P=TP+FPTP
  • 查全率(召回率 Rcall):
    R = T P T P + F N R=\frac{TP}{TP+FN} R=TP+FNTP
  • PR曲线
    在这里插入图片描述
    将所有样本按照是正例的可能性排序(降序),从左到右依次计算当前的查准率和查全率。
    特性:A曲线包住C,则A学习器更优。如有交叉则不能确定
  • F1
    1 F 1 = 1 2 ( 1 P + 1 R ) \frac{1}{F1}=\frac{1}{2}(\frac{1}{P}+\frac{1}{R}) F11=21(P1+R1)
    可推导出:
    F 1 = 2 P R P + R = 2 T P 2 T P + F P + F N F1=\frac{2PR}{P+R}=\frac{2TP}{2TP+FP+FN} F1=P+R2PR=2TP+FP+FN2TP

ROC与AUC

ROC(受试者工作特征 Receiver Operating Characteristic)

  • 真正例率(多少真被预测成正)
    T P R = T P T P + F N TPR=\frac{TP}{TP+FN} TPR=TP+FNTP
  • 假正例率(多少假被预测成正)
    F P R = F P F P + T N FPR=\frac{FP}{FP+TN} FPR=FP+TNFP
  • ROC
    把学习器对样例的预测结果排序(降序),按此顺序把样本当做正例开始预测。
    在这里插入图片描述
    如上,是三条ROC曲线,在0.23处取一条直线。那么,在同样的FPR=0.23的情况下,红色分类器得到更高的TPR。也就表明,ROC越往上,分类器效果越好。
  • AUC
    AUC是ROC的下包面积,面积越大学习器越好。

偏差,方差

  • 偏差
    度量了学习算法的期望预测与真实结果的偏离程度,即刻画了学习器本身的拟合能力
  • 方差
    度量了同样本大小的训练集的变动所导致学习器性能变化,方差小,性能稳定,学习器好
  • 1
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值