西瓜书学习笔记第二章(一)

西瓜书学习笔记

开始学习时间:2020/1/14

作者: 谭楷城


第二章:模型评估与选择

2.1 经验误差与过拟合

  • 错误率(error rate):分类错误的样本数占样本总数的比例。
  • 精度(accuracy):精度 = 1 - 错误率(常常以百分比的形式书写)
  • 误差(error):实际预测输出与样本的真实输出之间的差异。
  • 训练误差(training error)/经验误差(empirical error):学习器在训练集上的误差。
  • 泛化误差(generalization error):新样本上的误差。

我们实际希望得到的是从新样本上能表现得很好的学习器,即泛化误差小。为了达到这个目的,应该从训练样本中尽可能学出适用于所有潜在样本的“普遍规律”。

学习器把训练样本学得太好了的时候,很可能已经把训练样本自身的一些特点当作了所有潜在样本都会具有的一般性质。称之为“过拟合”(overfitting)。相对地,还没有学好训练样本中的一般性质称为“欠拟合”(underfitting)。

简述之,过拟合就是“过配”,欠拟合就是“欠配”。

过拟合的必然存在性

机器学习面临的问题通常是NP难甚至更难,而有效的学习算法必然是在多项式时间内运行完成。若可以彻底避免过拟合,则通过经验误差最小化就能获得最优解。这就意味着我们构造性的证明了P=NP。因此只要相信P ≠ \neq =NP,那么过拟合则不可避免。

在计算机领域,一般可以将问题分为可解问题不可解问题。不可解问题也可以分为两类:一类如停机问题,的确无解;另一类虽然有解,但时间复杂度很高。可解问题也分为多项式问题(Polynomial Problem,P问题)和非确定性多项式问题(NondeterministicPolynomial Problem,NP问题)

  • P类问题:可以找到一个多项式时间复杂度的算法去解决的问题;

  • NP类问题:可以在多项式时间复杂度的算法去验证结果正确性的问题;比如随便拿一个结果,可在多项式时间内验证该结果是否正确,但是想要求解该结果的时间复杂度就不知道了。P类问题一定是NP类问题,但是NP类问题不一定能找到多项式时间复杂度的算法来解决(要是找到了就是P问题了)。所以人们关心的是:是否所有的NP问题都是P问题,即是否有 P=NP(信息学的巅峰问题)

  • P ∈ \in NP

2.2 评估方法

通过实验测试来对学习器的泛化误差进行评估并进而做出选择。为此,需要使用一个"测试集"(testing set)来测试学习器对新样本的判别能力,然后以测试集上的测试误差(testing error)来作为泛化误差的近似

如何产生测试(验证)集?

现在有包含m个样例的数据集 D = { ( x 1 , y 1 ) , ( x 2 , y 2 ) , ⋯   , ( x m , y m ) } D=\{(x_1,y_1),(x_2,y_2),\cdots,(x_m,y_m)\} D={(x1,y1),(x2,y2),,(xm,ym)},既要训练,又要测试,如何做到?

答案:对 D D D进行适当的处理,从中产生出训练集 S S S和测试集 T T T

2.2.1 留出法(hold-out)

将数据集 D D D划分成两个互斥的集合。( D = S ∪ T D = S\cup T D=ST S ∩ T = ∅ S\cap T=\varnothing ST=)

在训练集 S S S训练得到模型后用 T T T评估其测试误差。

  • 在划分训练集与测试集的时候要尽可能保持数据分布的一致性

分类任务至少要保持样本的类别比例相似

若是从采样(sampling)的角度来看待数据集划分,保留类别比例的采样方式通常称为分层采样(stratified sampling)。例如:

D D D进行分层采样,获得70%样本的训练集 S S S和30%样本的测试集 T T T

保持样本分布的一致性,若样本集 D D D包含500个正例和500个反例,则分层采样得到的 S S S应该包含350个正例,350个反例,而 T T T包含150个正例和150个反例。

对于分层采样选取比例,如果测试集 T T T比较小,评估结果可能不够稳定准确。若 T T T多包含一些样本,训练集 S S S D D D的差别更大了,降低了评估结果的保真性(fidelity)。这个问题没有完美的解决方案,常见做法是将大约2/3~4/5的样本用来训练,剩余的样本用于测试。

当然,分割的方式有许多种。为了减少分割方式带来的差异,一般要采用若干次随机划分、重复进行实验评估后取平均值作为留出法的评估结果。例如上面例子中,就可以进行100次随机划分,每次产生一个训练/测试集用于实验评估,100次后就得到100个结果,而留出法返回的则是这100个结果的平均。同时也可以也可以得到估计结果的标准差。

2.2.2 交叉验证法(cross validation)

先将数据集 D D D划分为 k k k个大小相似的互斥子集并尽可能保持数据分布的一致性(分层采样)。然后每次用k-1个子集的并集作为训练集,余下的那个子集作为测试集。这样就获得了 k k k组的训练集和测试集,然后就进行 k k k次训练。

返回的是 k k k个测试结果的均值。交叉验证法评估结果的稳定性和保真性很大程度上取决于 k k k的取值

通常也把交叉验证法称为 k k k折交叉验证(k-fold cross validation)。[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-pS0eRsQM-1580636139645)(C:\Users\HP\Desktop\学习笔记\交叉验证法.png)]
在这里插入图片描述

常用的 k k k的取值是10,此外还有5,20等。

当然,交叉验证法同样存在多种划分方式。为了减小因为样本划分不同而引入的差别,k折交叉验证也要随机使用不同的划分重复p次。常见的有 p = 10 p=10 p=10,即10次10折交叉验证。

特殊地,当 k = m k=m k=m折数等于样本个数(即每个样本作为一折)就得到了交叉验证法的一个特例留一法(Leave-One-Out,简称LOO)。留一法不受随机样本划分方式的影响。

  • 优点是被实际评估的模型与期望评估用D训练出的模型很相似,评估结果往往被认为比较准确。

  • 缺点是在数据集比较大时计算开销大。

  • NFL定理说明,得到的模型不一定比其他模型好。


    • 留出法和交叉验证法由于保留了一部分样本用于测试,因此实际评估的模型所使用的训练集比 D D D小。这必然会引入一些因训练样本规模不同而导致的估计偏差。
2.2.3 自助法(bootstrapping)

以自助采样法为基础,由数据集 D D D采样得到 D ′ D' D

  1. 每次随机从 D D D中挑选一个样本,将其拷贝放入 D ′ D' D,然后再将该样本放回到初始数据集 D D D中,使得该样本在下次采样时仍有可能被采到。
  2. 这个过程重复执行样本个数 m m m次,就得到了包含 m m m个样本的数据集 D ′ D' D
  3. ( 1 − 1 m ) m = 1 e ≈ 0.368 (1-\cfrac{1}{m})^m=\cfrac{1}{e}\approx0.368 (1m1)m=e10.368 为m次采集中始终不被采到的概率,也就是36.8%的样本未出现在 D ′ D' D中。
  4. D ′ D' D作为训练集, D / D ′ D/D' D/D用作测试集。(/表示集合减法);实际评估模型与期望评估模型都使用的是m个训练样本。
  5. 因为有1/3数据总量的数据没有在训练集中出现,这样的测试结果也成为包外估计(out-of-bag estimate)。

优缺点

  • 自助法在数据集比较小,难以有效划分训练/测试集的时候很有用。
  • 能够从初始数据集中产生多个不同的数据集。对集成学习等方法有很大好处。

  • 自助法产生的数据集改变了初始数据集的分布,引入了估计偏差。
  • 初始数据足够的情况下,留出法和交叉验证法更常用一些。
2.2.4 调参与最终模型

参数调节(parameter tuning)

学习算法的很多参数都是在实属范围内取值,因此对每种参数配置都训练出模型来是不可行的。

现实中常用的做法是对每个参数选定一个范围变化步长。eg: 在[0,0.2]范围内以0.05为步长,则实际要评估的候选参数数值有5个。这是在计算开销和性能估计之间进行折中的结果。

参数调的好不好往往对最终模型性能有关键性的影响。

最终模型

经过上面的两种评估方法,事实上我们只使用了一部分数据训练模型。因此,在模型选择完成后,学习算法和参数配置已选定,此时应该用数据集 D D D重新训练模型。这个使用了所有 m m m个样本的训练模型才是我们最终提交给用户的。

!概念区分

注意:为了加以区分,模型评估与选择中用于评估测试的数据集常称为验证集(validation set)。

我们通常把学得的模型在实际使用中遇到的数据称为测试数据,而把训练数据另外划分为训练集验证集,基于验证集上的性能来进、

参数

  • 算法的参数(超参数):数目通常在10以内
  • 模型的参数:数目很多,大型深度学习参数甚至有上百亿个参数。

上面介绍了一些实验估计方法,但是还需要衡量模型泛化能力的评价标准。

2.3 性能度量

  • 性能度量(performance measure):反映任务需求,在对比不同模型的能力时,使用不同的性能度量往往会导致不同的评判结果。

什么样的模型是好的不仅取决于算法和数据,还决定于任务需求。

在预测任务中,评估学习器 f f f的性能,就要把学习器和预测结果 f ( x ) f(x) f(x)与真实标记 y y y进行比较。

  1. 回归任务:

最常用的性能度量是均方误差(MSE, mean squared error)。

一般的,对于数据分布 D D D和概率密度函数 p ( ⋅ ) p(\cdot) p(),均方误差可以描述为:
E ( f ; D ) = ∫ x ∼ D ( f ( x ) − y ) 2 p ( x ) d x E(f;D) = \int_{x \sim D}(f(x)-y)^2p(x)dx E(f;D)=xD(f(x)y)2p(x)dx

  1. 分类任务

错误率和精度是分类任务中最常用的两种性能度量。

分类错误率定义为:
E ( f ; D ) = 1 m ∑ i = 1 m II ( f ( x i ) ≠ y i ) E(f;D)=\frac{1}{m}\sum_{i=1}^{m}\textrm{II}(f(x_i)\neq y_i) E(f;D)=m1i=1mII(f(xi)=yi)
精度则定义为:
a c c ( f ; D ) = 1 − E ( f ; D ) acc(f;D)=1-E(f;D) acc(f;D)=1E(f;D)
同样的,对于数据分布和概率密度函数,我们也只需要将指示函数乘以概率密度后积分得到错误率与精度。

2.3.2 查准率、查全率与F1

错误率和精度不能满足所有任务需求。例如“所有的好瓜中有多少比例被挑了出来”,“检索出的信息中有多少比例是用户感兴趣的”之类的任务,查准率(precision)和查全率(recall)是更为适用于此类需求的性能度量。

有时候查准率也称为准确率,查全率也称为召回率。


  • 样例根据其真实类别与学习器预测类别的组合划分为**真正例(TP),假正例(FP),真反例(TN),假反例(FN)**四种情形。
  • T P TP TP F P FP FP T N TN TN F N FN FN分别表示其对应的样例数。
  • 分类结果混淆矩阵(confusion matrix)如下:
真实情况与预测结果预测结果为正例预测结果为反例
真实情况为正例TPFN
真实情况为反例FPTN

▶ \blacktriangleright 这些字母是true/false positive 还有 true/false negative 的简称。

查准率 P P P与查全率 R R R分别定义为:
P = T P T P + F P P=\frac{TP}{TP+FP} P=TP+FPTP

R = T P T P + F N R = \frac{TP}{TP+FN} R=TP+FNTP

查准率和查全率是一对矛盾的度量。一般来说,查准率高的时候,查全率往往偏低。而查全率高的时候,查准率往往偏低,除了一些简单的任务。

P-R曲线

我们根据学习器的预测结果对样例进行排序,排在最前面的则是最有可能是正例的样本,最后的则是最不可能是正例的样本。

按照这种顺序逐个把样本作为正例进行预测,则每次可以计算出当前的查全率、查准率,绘图得到P-R曲线:

在这里插入图片描述
要进行比较时:

  • 若一条曲线被另一条曲线“包住”,则可断言后者性能优于前者。
  • 如果曲线发生交叉,则难以一般性断言。可以根据P-R曲线下面积的大小进行判断,一定程度上表征了学习器在查准率和查全率上取得相对“双高”的比例

当然,P-R曲线面积难以计算,人们又设计了一些综合考虑查准率和查全率的性能度量。

平衡点与F1度量

平衡点(Break-Even Point,BEP)是查准率=查全率时的取值

BEP越大,说明曲线越靠近右上角,则下方面积越大。当然这还是过于简化了一点。

更常用的是F1度量。


F 1 = 2 × P × R P + R = 2 × T P 样 例 总 数 + T P − T N F1=\frac{2 \times P \times R}{P+R}=\frac{2\times TP}{样例总数+TP-TN} F1=P+R2×P×R=+TPTN2×TP

F1是基于查准率和查全率的调和平均定义而成的。

调和平均数分为简单调和平均数和加权调和平均数。F1是简单调和平均数。

在一些应用中,查准率和查全率的重要程度有所不同。为表达出查准率/查全率的不同偏好,定义为加权调和平均

F β \large F_\beta Fβ
F β = ( 1 + β 2 ) × P × R ( β 2 × P ) + R F_\beta=\frac{(1+\beta^2)\times P \times R}{(\beta^2 \times P)+R} Fβ=(β2×P)+R(1+β2)×P×R
其中, β > 0 \beta>0 β>0度量了查全率对查准率的相对重要性 β > 1 \beta>1 β>1时,查全率有更大影响。 β < 1 \beta<1 β<1时,查准率有更大影响。

很多时候我们希望估计算法的全局性能,例如我们已经在多个数据集上进行训练、测试,有n个二分类混淆矩阵:

  1. 一种方法是计算各混淆矩阵的查准率与查全率的平均值,得到宏查准率(macro-P),宏查全率(macro-R)以及相应的宏F1(macro-F1)。
    m a c r o − P = 1 n ∑ i = 1 n P i macro-P =\frac{1}{n}\sum_{i=1}^{n}P_i macroP=n1i=1nPi
    宏查全率、宏F1同理。

  2. 另一种方法是将混淆矩阵对应元素进行平均,得到TP、FP、TN、FN的平均值。再基于这些平均值计算微查准率(micro-P).微查全率(micro-R)和微F1(micro-F1):
    m i c r o − P = T P ‾ T P ‾ + F P ‾ micro-P = \frac{\overline{TP}}{\overline{TP}+\overline{FP}} microP=TP+FPTP
    微查全率,微F1同理。

2.3.3 ROC与AUC

很多学习器是为测试样本产生一个实值或概率预测,然后再与分类阈值(threshold)进行比较。大于阈值则分为正类,否则为反类。根据这个实值或者概率预测结果,将测试样本进行排序。最可能是正例的就放在最前面,最不可能的放在最后面,相当于以某个截断点(cut point)将样本分为两部分。截断点的位置取决于任务需求,例如重视查准率则位置靠前。

$\blacktriangleright $这种排序本身的质量好坏体现了综合考虑学习器在不同任务下的期望泛化性能的好坏。


ROC曲线

与P-R曲线一样,根据学习器的预测结果对样例进行排序,再按照这个顺序把样本作为正例进行预测,每次都计算真正例率(True Positive Rate,TPR)和假正例率(False Positive Rate, FPR)。
T P R = T P T P + F N TPR=\frac{TP}{TP+FN} TPR=TP+FNTP

F P R = F P T N + F P FPR=\frac{FP}{TN+FP} FPR=TN+FPFP

TPR作为纵轴,而FPR作为横轴。

算法的性能判断方法与P-R图类似。不同的是,发生交叉时,较为合理的判断依据是比较ROC曲线下的面AUC(Area Under ROC Curve)。

AUC可以估算为:
A U C = 1 2 ∑ i = 1 m − 1 ( x i + 1 − x i ) ⋅ ( y i + y i + 1 ) AUC=\frac{1}{2}\sum_{i=1}^{m-1}(x_{i+1}-x_i)\cdot(y_i+y_{i+1}) AUC=21i=1m1(xi+1xi)(yi+yi+1)

D + , D − D^+,D^- D+,D分别表示正反例集合,则排序损失(loss)定义为:
l r a n k = 1 m + m − ∑ x + ∈ D + ∑ x − ∈ D − ( I I ( f ( x + ) < f ( x − ) ) + 1 2 I I ( f ( x + ) = f ( x − ) ) ) l_{rank}=\frac{1}{m^+m^-}\sum_{x^+\in D^+}\sum_{x^-\in D^-}\Big(\rm II(f(x^+)<f(x^-))+\frac{1}{2}\rm II(f(x^+)=f(x^-))\Big) lrank=m+m1x+D+xD(II(f(x+)<f(x))+21II(f(x+)=f(x)))
总结:若正例的预测值小于反例,则记一个罚分,若相等,则记0.5个罚分。并且可以看出, l r a n k l_{rank} lrank是ROC曲线之上的面积,故可以理解为假正例率,有:
A U C = 1 − l r a n k AUC=1-l_{rank} AUC=1lrank

绘图过程

给定 m + m^+ m+个正例、 m − m^- m个反例:

  1. 根据学习器预测结果对样例进行排序

  2. 设置分类阈值为最大(即预测所有样例为反例),此时真正例率和假正例率均为0.

  3. 在坐标(0,0)处标记一个点

  4. 将分类阈值依次设为每个样例的预测值(即依次将每个样例划分为正例)。

    设前一个标记点坐标为 ( x , y ) (x,y) (x,y),当前若为真正例,则对应标记点的坐标为 ( x , y + 1 m + ) (x,y+\frac{1}{m^+}) (x,y+m+1)

    若为假正例,则对应标记点坐标为 ( x + 1 m − ) (x+\frac{1}{m^-}) (x+m1)。 #点坐标表示TPR\FPR的增加

  5. 连接相邻点。

https://blog.csdn.net/Green2_0/article/details/83744119这篇文章对于理解ROC曲线有一定帮助,建议参考。
https://www.zhihu.com/question/265364451/answer/302612819对于AUC的计算以及理解有一定帮助,推荐参考。

问:为什么 1 m + ⋅ m − \cfrac{1}{m^+ \cdot m^-} m+m1就是ROC图的一个单位格呢?

个人理解:ROC曲线的绘图过程告诉我们,TPR最终增至1在于分类阈值调节至最大导致进入排序队列的样本越多,最终全部进入而增至1。FPR同理。因此,ROC图可划分为 m + ⋅ m − m^+ \cdot m^- m+m个单元格。

2.3.4 代价敏感错误率与代价曲线

为了权衡不同类型错误所造成的不同损失,可为错误赋予“非均等代价”(unequal cost)。

代价矩阵(cost matrix)如下:

真实与预测类别第0类第1类
第0类0 c o s t 01 cost_{01} cost01
第1类 c o s t 10 cost_{10} cost100
  • c o s t i j cost_{ij} costij表示将第 i i i类样本预测为第 j j j类样本的代价。
  • 一般来说, c o s t i i = 0 cost_{ii}=0 costii=0
  • 若将第0类判别为第1类所造成的损失更大,则 c o s t 01 > c o s t 10 cost_{01} > cost_{10} cost01>cost10
  • 损失程度相差越大, c o s t 01 cost_{01} cost01 c o s t 10 cost_{10} cost10的值的差别越大。

之前的性能度量隐式地假设了均等代价,没有考虑不同错误会造成不同的后果

因此在非均等代价下,最小化总体代价(total cost)比最小化错误次数更有意义。

  • 代价敏感(cost-sensitive)错误率:
    E ( f ; D ; c o s t ) = 1 m ( ∑ x i ∈ D + I I ( f ( x i ) ≠ y i ) × c o s t 01 + ∑ x i ∈ D − I I ( f ( x i ) ≠ y i ) × c o s t 10 ) E(f;D;cost)=\frac{1}{m}\bigg(\sum_{x_i\in D^+} \rm{II}(f(x_i)\neq y_i)\times cost_{01}+\sum_{x_i\in D^- }\rm{II}(f(x_i)\neq y_i)\times cost_{10} \bigg) E(f;D;cost)=m1(xiD+II(f(xi)=yi)×cost01+xiDII(f(xi)=yi)×cost10)

代价敏感应用广泛:

  • 基于分布定义代价敏感错误率
  • 其他的一些性能度量也可以应用代价敏感,如精度的代价敏感版本
  • 多分类任务的代价敏感

代价曲线(cost curve)

横轴是取值为[0,1]的正例概率代价:
P ( + ) c o s t = p × c o s t 01 p × c o s t 01 + ( 1 − p ) × c o s t 10 P(+)cost=\frac{p\times cost_{01}}{p\times cost_{01}+(1-p)\times cost_{10}} P(+)cost=p×cost01+(1p)×cost10p×cost01

  • 其中, p p p是样例为正例的概率;

纵轴是取值为[0,1]的归一化代价:
c o s t n o r m = F N R × p × c o s t 01 + F P R × ( 1 − p ) × c o s t 10 p × c o s t 01 + ( 1 − p ) × c o s t 10 cost_{norm}=\frac{\mathbf{FNR}\times p \times cost_{01}+\mathbf{FPR} \times (1-p)\times cost_{10}}{p\times cost_{01}+(1-p)\times cost_{10}} costnorm=p×cost01+(1p)×cost10FNR×p×cost01+FPR×(1p)×cost10

F N R = 1 − T P R \mathbf{FNR=1-TPR} FNR=1TPR

  • FPR是假正例率,FNR是假反例率(false negative rate)。

在这里插入图片描述

代价曲线的绘制

ROC曲线上每一点对应了代价平面上的一条线段,设ROC曲线上点的坐标为(FPR,TPR),则可以相应计算出FNR,然后在代价平面上绘制一条从(0,FPR)到(1,FNR)的线段,线段下的面积即表示了该条件下的期望总体代价

如此,将ROC曲线上的每个点转化为代价平面上的一条线段,然后取所有线段的下界,围成面积即为在所有条件下学习器的期望总代价。

总结:期望总体代价由ROC曲线中每一个点计算FNR,根据FNR绘制线段得到与x轴围成面积。

至于为什么代价曲线下就是期望总体代价,我觉得可以用积分思想理解,但是并不严谨。

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值