第九讲:经验风险最小化
第六部分:学习理论(Learning Theory)
1. 偏差/方差权衡(Bias/variance tradeoff)
最早在我们学习线性回归的时候,我们就进行了关于选择拟合一个简单模型(如
y
=
θ
0
+
θ
1
x
y=\theta_0+\theta_1x
y=θ0+θ1x),还是选择拟合一个复杂模型(
y
=
θ
0
+
θ
1
x
+
⋯
+
θ
5
x
5
y=\theta_0+\theta_1x+\cdots+\theta_5x^5
y=θ0+θ1x+⋯+θ5x5)的讨论,仍旧是这幅图:
结果发现,拟合一个五阶多项式(右图)并不是一个好的选择。而且,尽管这个五阶多项式在对训练集中的样本特征 x x x(比如实用面积)做出预测 y y y(比如公寓租金)时做的非常好,我们也并不看好它对不再训练集中样本的预测结果。换句话说,模型从训练集中学到的知识并不能很好的*泛化(generalize)*到其他房屋租赁样本中。我们说一个假设的**泛化误差(generalization error)**就是指该假设对于不在训练集中样本预测的期望误差(我们在后面会给出正式的定义)。
最左和最右的图片都存在较大的泛化误差,但是这两个模型的问题却并不相同。如果 y y y与 x x x并不是线性关系,那么如果我们使用线性模型去拟合训练集,即使训练集很大,线性模型也不能精确的捕捉到数据的结构特征。非正式的定义模型的偏差(bias):即模型的预测值与样本实际值之间的差距,偏差越大则约偏离真实数据,即使拟合的训练集很大(如无限的训练集)。因此,对于左图,其线性模可能型存在欠拟合问题(即不能捕捉到数据呈现出的特征)。
除了偏差,泛化误差还有另一个组成部分——模型拟合过程的方差(variance)。比如右图中的五阶多项式,这个模型很有可能只反映出了我们这个有限训练集中的数据特征,但并不能反映出不在训练集中的更广泛的
y
y
y与
x
x
x的关系。我们的训练集中可能存在比平均价格更高或更低的样本,于是当我们拟合这些“具有欺骗性的”数据时,也有可能得到一个泛化误差很大的模型。在这种情况下,我们称模型具有较大的方差,也就是预测值的变化范围或离散程度较大。(方差越大,数据分布越分散。在课程中我们不再给出关于偏差与方差的形式化定义,尽管这两个概念在诸如线性回归的算法中有明确定义,但在分类问题中这些概念的定义却有好几个不同的提议,而且尚未达成共识。)
通常,我摸在偏差与方差间都会做出权衡。如果我们的模型过于简单,只有很少的几个参数,那么它可能存在着较大的偏差(但是方差较小);如果过于复杂而含有非常多的参数,那么模型可能会存在较大的方差(但是偏差较小)。对于上面的这个例子,使用二次函数拟合的效果优于一阶或五阶多项式。
2. 序言
本节我们会对学习理论有一个大致了解,除了启发和深入理解机器学习,这部分讨论还将加强我们对学习理论直观概念,也会介绍一些学习算法在不同设置下最佳应用的经验。同时还将尝试解答这几个问题:
-
首先,我们能否形式化偏差与方差间的权衡过程?
这个问题也将引出关于模型选择方法的讨论,比如算法自动确定使用几阶多项式进行拟合。
-
其次,在机器学习中我们真正关心的是模型的泛化误差,但是大多数学习算法只对训练集做拟合,那么我们如何从“对训练集有着很好拟合的模型”中得知它的泛化误差?
我们尤其想知道,能否将“模型关于训练集的误差”同“模型的泛化误差”联系起来?
-
最后一个问题,是否存在能够证明学习算法将会有效的条件?
我们从两个非常有用的引理说起:
引理,联合界(the union bound):令 A 1 , A 2 , ⋯ , A k A_1,A_2,\cdots,A_k A1,A2,⋯,Ak为 k k k个不同的事件(并不要求独立),则有:
P ( A 1 ∪ ⋯ ∪ A k ) ≤ P ( A 1 ) + ⋯ + P ( A k ) P(A_1\cup\cdots\cup A_k)\leq P(A_1)+\cdots+P(A_k) P(A1∪⋯∪Ak)≤P(A1)+⋯+P(Ak)
在概率论中,联合界通常当做公理来使用(所以我们不会尝试证明这个式子),不过它很符合直觉: k k k个事件中任意一些事件发生的概率至多为这 k k k个事件各自发生的概率之和(用文氏图表示更加自然)。
(在符号的使用习惯上,如果我们对符号 a a a加上了 a ^ \hat a a^,则这个“帽子”符号通常表示对原符号的估计,比如后面的 ε ^ \hat\varepsilon ε^就是用来近似估计泛化误差 ε \varepsilon ε,而后面的 h ^ \hat h h^就是对真正的假设函数 h h h的估计。)
引理,霍夫丁不等式(Hoeffding inequality), Z 1 , ⋯ , Z m Z_1,\cdots,Z_m Z1,⋯,Zm是服从 B e r n o u l l i ( ϕ ) \mathrm{Bernoulli}(\phi) Bernoulli(ϕ)的独立同分布(IID)的随机变量,即 P ( Z i = 1 ) = ϕ , P ( Z i = 0 ) = 1 − ϕ P(Z_i=1)=\phi,P(Z_i=0)=1-\phi P(Zi=1)=ϕ,P(Zi=0)=1−ϕ。令 ϕ ^ = 1 m ∑ i = 1 m Z i \hat\phi=\frac{1}{m}\displaystyle\sum_{i=1}^mZ_i ϕ^=m1i=1∑mZi,这是一个通过变量均值去估计变量期望的量,再令 γ > 0 \gamma\gt0 γ>0,则有:
P ( ∣ ϕ − ϕ ^ ∣ > γ ) ≤ 2 exp ( − 2 γ 2 m ) P\left(\lvert\phi-\hat\phi\rvert\gt\gamma\right)\leq2\exp\left(-2\gamma^2m\right) P(∣ϕ−ϕ^∣>γ)≤2exp(−2γ2m)
这个引理(在机器学习中也叫作切诺夫界,Chernoff bound)告诉我们,如果用 ϕ ^ \hat\phi ϕ^(即 m m m个服从 B e r n o u l l i ( ϕ ) \mathrm{Bernoulli}(\phi) Bernoulli(ϕ)的随机变量的平均值)作为参数 ϕ \phi ϕ的估计,那么若 m m m越大,则我们离参数实际值越接近。也就是说,假设有一枚不均匀的硬币,掷这枚硬币面朝上的概率为 ϕ \phi ϕ,如果我们掷 m m m次硬币,然后计算面朝上的比例,那么掷的次数越多,则这个比例作为参数 ϕ \phi ϕ估计的可信度越高。
仅通过这两个引理,我们就可以推导出一些关于学习理论的深层次的至关重要的结论。
为了使后面的论述更简洁,我们先将注意力限定在 y ∈ { 0 , 1 } y\in\{0,1\} y∈{0,1}的二元分类问题上。我们在这里讨论的结论都可以推广到包括回归、多元分类等问题中。
假设有一组大小为 m m m的训练集 S = { ( x ( i ) , y ( i ) ) ; i = 1 , ⋯ , m } S=\left\{\left(x^{(i)},y^{(i)}\right);i=1,\cdots,m\right\} S={(x(i),y(i));i=1,⋯,m},其中的样本 ( x ( i ) , y ( i ) ) \left(x^{(i)},y^{(i)}\right) (x(i),y(i))服从某个独立同分布的概率分布 D \mathcal{D} D。对于假设函数 h h h,我们定义训练误差(training error)(在学习理论中也称为经验风险(empirical risk)或经验误差(empirical error))为:
ε ^ ( h ) = 1 m ∑ i = 1 m 1 { h ( x ( i ) ) ≠ y ( i ) } \hat\varepsilon(h)=\frac{1}{m}\sum_{i=1}^m1\left\{h\left(x^{(i)}\right)\neq y^{(i)}\right\} ε^(h)=m1i=1∑m1{h(x(i))=y(i)}
其实就是 h h h对训练集误分类的比例。如果想要明确表示 ε ^ ( h ) \hat\varepsilon(h) ε^(h)是基于训练集 S S S的,那么可以写作 ε ^ S ( h ) \hat\varepsilon_S(h) ε^S(h)。我们定义泛化误差为:
ε ( h ) = P ( x , y ) ∼ D ( h ( x ) ≠ y ) \varepsilon(h)=P_{(x,y)\sim\mathcal{D}}(h(x)\neq y) ε(h)=P(x,y)∼D(h(x)=y)
这个式子表示,如果从分布 D \mathcal{D} D中再取出一个新的样本 ( x , y ) (x,y) (x,y), h h h会将其误分类的概率。
应该留意的是,我们一直假设训数据是从分布 D \mathcal{D} D中取出的,而分布 D \mathcal{D} D正是我们将要(通过泛化误差定义式)用假设函数 h h h评估的对象。这也有时候会作为PAC假设中的一条。(PAC是probably approximately correct的缩写,通常译为可能近似正确,它是学习理论已经证明的一套理论框架中的一些列假设。其中最重要的是关于同一个分布的训练以及测试的假设,以及关于独立抽取训练样本的假设。)
考虑线性分类的设置,令 h θ ( x ) = 1 { θ T x ≥ 0 } h_\theta(x)=1\left\{\theta^Tx\geq0\right\} hθ(x)=1{θTx≥0},那么用什么方法拟合参数 θ \theta θ比较合理呢?其中一种实现是通过最小化训练误差得到:
θ ^ = a r g max θ ε ^ ( h θ ) \hat\theta=\mathrm{arg}\operatorname*{max}_{\theta}\hat\varepsilon(h_\theta) θ^=argθmaxε^(hθ)
我们称这个算法为经验风险最小化(ERM: empirical risk minimization),而由学习算法得出的假设函数为 h ^ = h θ ^ \hat h=h_{\hat\theta} h^=hθ^。经验风险最小化通常被认为是最基础的学习算法,它也是本节关注的焦点算法。(ERM本身是一个非凸优化问题,诸如逻辑回归和支持向量机等算法也可以被看做是一种凸性近似的经验风险最小化算法。)
在深入学习理论的过程中,我们要学会不纠结于假设某些特定的参数化法或该不该使用线性分类器等问题。对于本讲要证明的结论来说,我们不再把学习算法当做是一组参数的选取过程,而应该把它当做是选择一个函数的过程。定义学**假设类(hypothesis class) H \mathcal{H} H**是所有分类器的集合,而我们的学习算法会从中选择分类器。对于线性分类器, H = { h θ : h θ ( x ) = 1 { θ T x ≥ 0 } , θ ∈ R n + 1 } \mathcal{H}=\left\{h_\theta:h_\theta(x)=1\left\{\theta^Tx\geq0\right\},\theta\in\mathbb{R}^{n+1}\right\} H={hθ:hθ(x)=1{θTx≥0},θ∈Rn+1}是所有判别边界是线性的分类器集合,其中的每一个成员 h θ h_\theta hθ都是从 X \mathcal{X} X(输入域)到 { 0 , 1 } \{0,1\} {0,1}的函数。更广泛的,比如我们在学习神经网络,则我们可以令 H \mathcal{H} H为表示神经网络架构的所有分类器的集合。
现在可以将经验风险最小化看做是一类函数 H \mathcal{H} H中的一个最小化函数,算法将在这一类函数中选择一个假设:
h ^ = a r g min h ∈ H ε ^ ( h ) \hat h=\mathrm{arg}\operatorname*{min}_{h\in\mathcal{H}}\hat\varepsilon(h) h^=argh∈Hminε^(h)
(这里给出的 h ^ \hat h h^与前面的 θ ^ \hat\theta θ^是等价的,只是不同思路下的不同表达。)
3. 若 H \mathcal{H} H是有限的
我们从一个具有“由 k k k个假设构成的有限假设类 H = { h 1 , ⋯ , h k } \mathcal{H}=\{h_1,\cdots,h_k\} H={h1,⋯,hk}”的学习问题开始讲起。因此 H \mathcal{H} H只是 k k k个从 X \mathcal{X} X映射到 { 0 , 1 } \{0,1\} {0,1}的函数组成的集合,而经验风险最小化将从这 k k k个函数中选择训练误差最小的一个。
我们想要给 h h h的泛化误差加上保证条件,分为两步:
- 我们先要证明对于所有 h h h,都有 ε ^ ( h ) \hat\varepsilon(h) ε^(h)(训练误差)是 ε ( h ) \varepsilon(h) ε(h)(泛化误差)的可靠估计(这样我们就可以通过降低训练误差来减小泛化误差了);
- 接下来证明 h ^ \hat h h^的泛化误差存在一个上界。
假设我们从中选了 h i ∈ H h_i\in\mathcal{H} hi∈H,考虑一个如下定义的伯努利随机变量 Z Z Z:抽取样本 ( x , y ) ∼ D (x,y)\sim\mathcal{D} (x,y)∼D,然后令 Z = 1 { h i ( x ) ≠ y } Z=1\left\{h_i(x)\neq y\right\} Z=1{hi(x)=y},即抽取一个样本,然后用 Z Z Z来表示 h i h_i hi是否误分类了样本,同样的有 Z j = 1 { h i ( x ( j ) ) ≠ y ( i ) } Z_j=1\left\{h_i\left(x^{(j)}\right)\neq y^{(i)}\right\} Zj=1{hi(x(j))=y(i)},即 h i h_i hi是否误分类了第 i i i个样本(很明显 Z j ∈ { 0 , 1 } Z_j\in\{0,1\} Zj∈{0,1}是一个伯努利分布,根据泛化误差的定义有 P ( Z j = 1 ) = ε ( h i ) P(Z_j=1)=\varepsilon(h_i) P(Zj=1)=ε(hi),其期望由 h i h_i hi的泛化误差给出)。由于我们的训练集是 D \mathcal{D} D上的独立同分布,所以 Z Z Z和 Z j Z_j Zj具有相同的分布。
可以看出对于随机抽取的样本,被误分类的概率为 ε \varepsilon ε(这正是 Z Z Z和 Z j Z_j Zj的预期值)。而且,训练误差可以写作:
ε ^ ( h i ) = 1 m ∑ i = 1 m Z j \hat\varepsilon(h_i)=\frac{1}{m}\sum_{i=1}^mZ_j ε^(hi)=m1i=1∑mZj
h i h_i hi的训练误差 ε ^ ( h i ) \hat\varepsilon(h_i) ε^(hi)就是 m m m个随机变量 Z j Z_j Zj的平均值,它们是从伯努利分布中抽取的期望为 ε ( h i ) \varepsilon(h_i) ε(hi)的独立同分布的随机变量。带入霍夫丁不等式有:
P ( ∣ ε ( h i ) − ε ^ ( h i ) ∣ > γ ) ≤ 2 exp ( − 2 γ 2 m ) P\left(\left\lvert \varepsilon(h_i)-\hat\varepsilon(h_i)\right\rvert\gt\gamma\right)\leq2\exp\left(-2\gamma^2m\right) P(∣ε(hi)−ε^(hi)∣>γ)≤2exp(−2γ2m)
这表明对于我们选择的特定 h i h_i hi,当 m m m足够大时,训练误差与泛化误差非常接近的概率也会变大。不过我们不仅仅想保证这个特定的 h i h_i hi下 ε ( h i ) \varepsilon(h_i) ε(hi)与 ε ^ ( h i ) \hat\varepsilon(h_i) ε^(hi)(很大概率)非常接近,我们想要证明这对所有的 h ∈ H h\in\mathcal{H} h∈H同时成立。
将事件 ∣ ε ( h i ) − ε ^ ( h i ) ∣ > γ \left\lvert \varepsilon(h_i)-\hat\varepsilon(h_i)\right\rvert\gt\gamma ∣ε(hi)−ε^(hi)∣>γ记为 A i A_i Ai,我们已经证明了对任意 A i A_i Ai都有 P ( A i ) ≤ 2 exp ( − 2 γ 2 m ) P(A_i)\leq2\exp\left(-2\gamma^2m\right) P(Ai)≤2exp(−2γ2m)。因此,使用联合界有:
P ( ∃ h ∈ H . ∣ ε ( h i ) − ε ^ ( h i ) ∣ > γ ) = P ( A 1 ∪ ⋯ ∪ A k ) ≤ ∑ i = 1 k P ( A i ) ≤ ∑ i = 1 k 2 exp ( − 2 γ 2 m ) = 2 k exp ( − 2 γ 2 m ) \begin{align} P\left(\exists h\in\mathcal{H}.\ \left\lvert\varepsilon(h_i)-\hat\varepsilon(h_i)\right\rvert\gt\gamma\right)&=P\left(A_1\cup\cdots\cup A_k\right)\\ &\leq\sum_{i=1}^kP(A_i)\\ &\leq\sum_{i=1}^k2\exp\left(-2\gamma^2m\right)\\ &=2k\exp\left(-2\gamma^2m\right) \end{align} P(∃h∈H. ∣ε(hi)−ε^(hi)∣>γ)=P(A1∪⋯∪Ak)≤i=1∑kP(Ai)≤i=1∑k2exp(−2γ2m)=2kexp(−2γ2m)
(第一个等式左边为“ H \mathcal{H} H中存在某函数 h i h_i hi使得其泛化误差与训练误差的差值大于 γ \gamma γ”的概率。)
同时用 1 1 1减去不等式两边的量:
P ( ¬ ∃ h ∈ H . ∣ ε ( h i ) − ε ^ ( h i ) ∣ > γ ) = P ( ∀ h ∈ H , ∣ ε ( h i ) − ε ^ ( h i ) ∣ ≤ γ ) ≥ 1 − 2 k exp ( − 2 γ 2 m ) \begin{align} P\left(\lnot\exists h\in\mathcal{H}.\ \left\lvert\varepsilon(h_i)-\hat\varepsilon(h_i)\right\rvert\gt\gamma\right)&=P\left(\forall h\in\mathcal{H},\ \left\lvert\varepsilon(h_i)-\hat\varepsilon(h_i)\right\rvert\leq\gamma\right)\\ &\geq1-2k\exp\left(-2\gamma^2m\right) \end{align} P(¬∃h∈H. ∣ε(hi)−ε^(hi)∣>γ)=P(∀h∈H, ∣ε(hi)−ε^(hi)∣≤γ)≥1−2kexp(−2γ2m)
( ¬ \lnot ¬表示“逻辑否”,即事件“ H \mathcal{H} H中不存在某函数 h i h_i hi使得其泛化误差与训练误差的差值大于 γ \gamma γ”,也就是事件“ H \mathcal{H} H中任意函数 h i h_i hi使得其泛化误差与训练误差的差值不大于 γ \gamma γ”。)也就是说,对于所有 h ∈ H h\in\mathcal{H} h∈H,有 ε ( h ) \varepsilon(h) ε(h)与 ε ^ ( h ) \hat\varepsilon(h) ε^(h)之间的差值小于 γ \gamma γ的概率至少为 1 − 2 k exp ( − 2 γ 2 m ) 1-2k\exp\left(-2\gamma^2m\right) 1−2kexp(−2γ2m),也叫作*一致收敛(uniform convergence)*结果,因为这是所有 h ∈ H h\in\mathcal{H} h∈H同时成立的界限(一致收敛暗示了当 m m m很大时, H \mathcal{H} H中所有的 ε ^ ( h i ) \hat\varepsilon(h_i) ε^(hi)都将同时收敛于 ε ( h i ) \varepsilon(h_i) ε(hi),此时训练误差将会非常接近泛化误差 )。
上面的计算结果指出,给定的 m , γ m,\gamma m,γ将会确定事件“对于某些 h ∈ H , ∣ ε ( h ) − ε ^ ( h ) ∣ > γ h\in\mathcal{H},\ \left\lvert\varepsilon(h)-\hat\varepsilon(h)\right\rvert\gt\gamma h∈H, ∣ε(h)−ε^(h)∣>γ”发生概率的界限。这里涉及三个值 m , γ m,\gamma m,γ以及误差的概率。于是,我们就可以利用任意两个值确定第三个值的界限。
-
比如,对于给定的 γ \gamma γ和某个 δ > 0 \delta\gt0 δ>0, m m m至少得取多大才能保证事件“训练误差与泛化误差之差在 γ \gamma γ以内”的概率至少为 1 − δ 1-\delta 1−δ?可以令 δ = 2 k exp ( − 2 γ 2 m ) \delta=2k\exp\left(-2\gamma^2m\right) δ=2kexp(−2γ2m)然后解出 m m m,那么如果 m ≥ 1 2 γ 2 log 2 k δ m\geq\frac{1}{2\gamma^2}\log\frac{2k}{\delta} m≥2γ21logδ2k,则对于任意 h ∈ H h\in\mathcal{H} h∈H,有事件“ ∣ ε ( h ) − ε ^ ( h ) ∣ ≤ γ \left\lvert\varepsilon(h)-\hat\varepsilon(h)\right\rvert\leq\gamma ∣ε(h)−ε^(h)∣≤γ”发生的概率至少为 1 − δ 1-\delta 1−δ。(等价的有,对于某些 h ∈ H h\in\mathcal{H} h∈H,事件 ∣ ε ( h ) − ε ^ ( h ) ∣ > γ \left\lvert\varepsilon(h)-\hat\varepsilon(h)\right\rvert\gt\gamma ∣ε(h)−ε^(h)∣>γ发生的概率为至多为 δ \delta δ)。这个界限指出了为了保证一个特定的误差,至少需要多少训练样本。对于给定的算法,为了保证特定的误差级别,所需要的训练集的大小 m m m称为该算法的样本复杂度界(sample complexity bound)。
这个界限的关键性质在于,算法为保证误差所需的训练集大小与 k k k的对数相关,也就是 H \mathcal{H} H中假设的个数的对数( m m m与 log k \log k logk成正比,而 log k \log k logk的增长速度是非常慢的。另外,从经验上讲,对数函数是增长速度最慢的函数之一,在计算机科学中通常有 ∀ k , log k ≤ 30 \forall k,\ \log k\leq30 ∀k, logk≤30。也就是说,即使在假设类中增加很多假设,所需的样本也不会增加多少)。在后面的讲解中,这是一个很重要的性质。
-
类似的,我们也可以固定 m , δ m,\delta m,δ的取值,从上面的等式中解出 γ \gamma γ。如果要保证 1 − δ 1-\delta 1−δ的概率,在给定的训练集包含 m m m个样本时,对于所有的 h ∈ H h\in\mathcal{H} h∈H,有 ∣ ε ( h ) − ε ^ ( h ) ∣ ≤ 1 2 m log 2 k δ ⏟ γ \left\lvert\varepsilon(h)-\hat\varepsilon(h)\right\rvert\leq\underbrace{\sqrt{\frac{1}{2m}\log\frac{2k}{\delta}}}_{\gamma} ∣ε(h)−ε^(h)∣≤γ 2m1logδ2k。
我们队第一部分的证明就到这里,可以看出训练误差一致收敛于泛化误差的可能性很高。接下来是第二部分的证明。
现在,我们假设一致收敛已经确定,即对于所有 h ∈ H h\in\mathcal{H} h∈H要使 ∣ ε ( h ) − ε ^ ( h ) ∣ ≤ γ \left\lvert\varepsilon(h)-\hat\varepsilon(h)\right\rvert\leq\gamma ∣ε(h)−ε^(h)∣≤γ,我们能够证明哪些关于 h ^ \hat h h^的泛化误差 ε ( h ^ ) \varepsilon(\hat h) ε(h^)的结论?这里的 h ^ = a r g min h ∈ H ε ^ ( h ) \hat h=\mathrm{arg}\displaystyle\operatorname*{min}_{h\in\mathcal{H}}\hat\varepsilon(h) h^=argh∈Hminε^(h)是经验风险最小化选取的假设。
定义 h ∗ = a r g min h ∈ H ε ( h ) h^*=\mathrm{arg}\displaystyle\operatorname*{min}_{h\in\mathcal{H}}\varepsilon(h) h∗=argh∈Hminε(h)为 H \mathcal{H} H中最能够满足条件的假设函数。注意到 h ∗ h^* h∗是我们能从 H \mathcal{H} H中找到的最好的(泛化误差最小的)假设函数(也就是我们不可能在 H \mathcal{H} H中找到比 h ∗ h^* h∗做得更好的函数,那么用我们的算法与 h ∗ h^* h∗作比较就具有了实际意义),所以,与 h ∗ h^* h∗对比误差有:
ε ( h ^ ) ≤ ε ^ ( h ^ ) + γ ≤ ε ^ ( h ∗ ) + 2 γ ≤ ε ( h ∗ ) + 2 γ \begin{align} \varepsilon(\hat h)&\leq\hat\varepsilon(\hat h)+\gamma\\ &\leq\hat\varepsilon(h^*)+2\gamma\\ &\leq\varepsilon(h^*)+2\gamma \end{align} ε(h^)≤ε^(h^)+γ≤ε^(h∗)+2γ≤ε(h∗)+2γ
第一个式子来自 ∣ ε ( h ) − ε ^ ( h ) ∣ ≤ γ \left\lvert\varepsilon(h)-\hat\varepsilon(h)\right\rvert\leq\gamma ∣ε(h)−ε^(h)∣≤γ(一致收敛假设)。第二个式子中, h ^ \hat h h^是我们选来能够最小化 ε ^ ( h ) \hat\varepsilon(h) ε^(h)的假设函数,那么对所有 h h h都有 ε ^ ( h ^ ) ≤ ε ^ ( h ) \hat\varepsilon(\hat h)\leq\hat\varepsilon(h) ε^(h^)≤ε^(h),所以对特定的 h ∗ h^* h∗也就有 ε ^ ( h ^ ) ≤ ε ^ ( h ∗ ) \hat\varepsilon(\hat h)\leq\hat\varepsilon(h^*) ε^(h^)≤ε^(h∗)。第三个式子仍然使用一致收敛假设证明了 ε ^ ( h ∗ ) ≤ ε ( h ∗ ) + γ \hat\varepsilon(h^*)\leq\varepsilon(h^*)+\gamma ε^(h∗)≤ε(h∗)+γ。于是,这个不等式证明:如果有一致收敛假设,则 h ^ \hat h h^的泛化误差比至多比 H \mathcal{H} H中最好的假设函数多 2 γ 2\gamma 2γ。
把上面的推导总结在一个定理中:
定理,令 ∣ H ∣ = k \lvert\mathcal{H}\rvert=k ∣H∣=k,对于给定 m , δ m,\delta m,δ,当事件“训练误差与泛化误差之差小于 γ \gamma γ”的概率不小于 1 − δ 1-\delta 1−δ时,有:
ε ( h ^ ) ≤ ( min h ∈ H ε ( h ) ) ⏟ ε ( h ∗ ) + 2 1 2 m log 2 k δ ⏟ γ \varepsilon(\hat h)\leq\underbrace{\left(\operatorname*{min}_{h\in\mathcal{H}}\varepsilon(h)\right)}_{\varepsilon(h^*)}+2\underbrace{\sqrt{\frac{1}{2m}\log\frac{2k}{\delta}}}_{\gamma} ε(h^)≤ε(h∗) (h∈Hminε(h))+2γ 2m1logδ2k
也就是将 γ \gamma γ换成了根号项,用的是事件“训练误差与泛化误差之差小于 γ \gamma γ”的概率不小于 1 − δ 1-\delta 1−δ下一致收敛时得到的结论。另外,需要注意这个结论也告诉我们 ε ( h ) \varepsilon(h) ε(h)至多比 ε ( h ∗ ) = min h ∈ H ε ( h ) \varepsilon(h^*)=\displaystyle\operatorname*{min}_{h\in\mathcal{H}}\varepsilon(h) ε(h∗)=h∈Hminε(h)大 2 γ 2\gamma 2γ。
这同样也印证了前面关于模型选择时的偏差/方差权衡的讨论。比如,我们原有一个假设类 H \mathcal{H} H,现在考虑换到另一个更大的假设类 H ′ ⊇ H \mathcal{H}'\supseteq\mathcal{H} H′⊇H下(举个例子,我们原来的 H \mathcal{H} H为所有线性函数的假设类,在加入了更多特征后有 H ′ \mathcal{H}' H′为二次函数构成的假设类,而线性函数构成的假设类是二次函数构成的假设类的子集)。如果我们换到 H ′ \mathcal{H}' H′(也就是二次函数假设类),则 ε ( h ∗ ) \varepsilon(h^*) ε(h∗)将会减小(因为我们这次从一个更大的函数集合中选择最小化泛化误差的函数,所以能够得到的新函数,可能是个二次函数,一定不会被原来的函数效果差)。于是,非正式的说,通过学习使用更大的假设类,偏差可能就会降低。但是,如果 k k k增大, γ \gamma γ项就会增大。于是,非正式的说,当我们选用更大的假设类时,方差也会随之上升。(整个过程说明,如果我们切换到一个更大的假设类中,那么我们得到一个使泛化误差更小的假设函数的希望就会增加,但代价是找到的函数不能精确拟合训练集的概率也会增加。我们可以非正式的将第一项对应为偏差,而将第二项对应为方差。)
在给定 γ , δ \gamma,\delta γ,δ的情况下,我们可以向前面一样解出 m m m,从而得到样本复杂度界限:
推论,令 ∣ H ∣ = k \lvert\mathcal{H}\rvert=k ∣H∣=k,对于给定的 γ , δ \gamma,\delta γ,δ,如果要保证 ε ( h ^ ) ≤ min h ∈ H ε ( h ) + 2 γ \varepsilon(\hat h)\leq\displaystyle\operatorname*{min}_{h\in\mathcal{H}}\varepsilon(h)+2\gamma ε(h^)≤h∈Hminε(h)+2γ成立,并且在事件“训练误差与泛化误差之差小于 γ \gamma γ”的概率至少为 1 − δ 1-\delta 1−δ时,需要满足:
m ≥ 1 2 γ 2 log 2 k δ = O ( 1 γ 2 log k δ ) \begin{align} m&\geq\frac{1}{2\gamma^2}\log\frac{2k}{\delta}\\ &=O\left(\frac{1}{\gamma^2}\log\frac{k}{\delta}\right) \end{align} m≥2γ21logδ2k=O(γ21logδk)
下一讲会将讨论 H \mathcal{H} H是无限的情况,我们也会从上面这个式子开始说起。