机器学习总结(1--模型评估与选择)

1.错误率(error rate):分类错误的样本数占样本总数的比例,如m个样本中有a个样本分类错误,则错误率E:

E=a/m

2.精度(accuracy):就是正确率呗,整体1减去错误率即得。

3.误差(error):学习器的实际预测输出与样本的真实输出之间的差异。

4.训练误差(training error):学习器在训练集上的误差,也叫经验误差。

5.泛化误差(generalization error):在新样本上的误差,我们希望得到更小的泛化误差,这就如同自己模拟和高考的区别。

6.过拟合(overfitting):人脸上必须戴眼镜,苹果必须是绿色的,鸡必须练习两年半等。

7.欠拟合(underfitting):机器对训练样本的一般性质还没学好,我刚幼儿园大班毕业你让我参加高考。

8.测试误差(testing error):测试集内容与训练集尽量互斥,以此误差近似当为泛化误差。

9.留出法(hold-out):数据集划分为两个互斥的集合,一个作为训练集S,另一个作为测试集T。

10.交叉验证法(cross validation):划分为k个互斥子集,用k-1个作为S,剩下的一个作为T。当k为总样本数量时,称为留一法(leave-one-out,LOO),留一法的评估结果往往被认为比较准确。

11.自助法(bootstrapping):从总样本里进行有放回的采样,使用采样数据集作为S,未采到的约有\lim_{m\mapsto \infty}(1-1/m)^m\mapsto1/e\approx0.368的数据作为测试集。样本较小时用起来好一些,但是会引入额外的估计误差,因为改变了初始数据集分布。

12.数据集划分的经验:初始数据量足够时,留出法与交叉验证更常用。

13.验证集(validation set)是干嘛的?

  • 用于在训练过程中检验模型的状态,收敛情况。验证集通常用于调整超参数,根据几组模型验证集上的表现决定哪组超参数拥有最好的性能。
  • 同时验证集在训练过程中还可以用来监控模型是否发生过拟合,一般来说验证集表现稳定后,若继续训练,训练集表现还会继续上升,但是验证集会出现不升反降的情况,这样一般就发生了过拟合。所以验证集也用来判断何时停止训练

14.性能度量(performance measure):对学习器的泛化性能评估,不仅需要有效的实验估计方法,还需要有衡量模型泛化能力的评价标准,即之。(赶紧拉草皮过来,必须得符合欧盟标准)。

15.查准率(precision)、查全率(recall)与F1:

如一个二分类问题的预测结果,无非4种情况:真正例(true positive)、假正例(false positive)、真反例(true negative)与假反例(false negative),前面真假代表预测结果,后面正反代表预测对了还是错了。

分类结果混淆矩阵
真实情况/预测结果正例反例
正例TP(真正例)FN(假反例)
反例FP(假正例)TN(真反例)

查准率P定义为:

P=\frac{TP}{TP+FP}

查全率R定义为:

R=\frac{TP}{TP+FN}

这俩度量互相矛盾,此高彼低。

P-R曲线:以查准率为纵轴,查全率为横轴的二维坐标系。

平衡点(break-even point):查准率=查全率        时,的取值。

F1度量:

F1=\frac{2\times P\times R}{P+R}

16.ROC(Recevier Operating Characteristic)与AUG(Area Under ROC Curve):

与P-R类似,ROC的横轴为FPR(False Positive Rate),纵轴为TPR(True Postive Rate)。

TPR=\frac{TP}{TP+FN}

FPR=\frac{FP}{TN+FP}

AUG就是ROC的面积。

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值