机器学习的基本原理

要学习机器学习,首先得想明白机器学习为啥是可信的,下面就介绍几个我个人认为的机器学习的基础原理:

  • Hoaffding定理:机器学习泛化误差上界
  • bias & variance & error:模型预测误差的成分
  • No Free Lunch Theorem:不存在在任何情况下准确性都好的模型

Hoaffding定理

Hoaffding定理是泛化能力的一种解释,现在在这我给出Hoaffding定理的证明和释义。

Jensen不等式

若函数 f ( x ) f(x) f(x) x ∈ [ a , b ] x\in [a,b] x[a,b] f ′ ′ ( x ) > 0 f^{''}(x)>0 f(x)>0,令

q ∈ [ 0 , 1 ] , F ( x ) = q f ( b ) + ( 1 − q ) f ( a ) − f ( q b + ( 1 − q ) a ) q\in [0,1],F(x)=qf(b)+(1-q)f(a)-f(qb+(1-q)a) q[0,1],F(x)=qf(b)+(1q)f(a)f(qb+(1q)a)

那么

F ( 0 ) = 0 F(0)=0 F(0)=0

F ( 1 ) = 0 F(1)=0 F(1)=0

F ′ ( q ) = f ( b ) − f ( a ) − ( b − a ) f ′ ( q b + ( 1 − q ) a ) = ( b − a ) ( f ′ ( θ ) − f ′ ( q b + ( 1 − q ) a ) ) F^{'}(q)=f(b)-f(a)-(b-a)f^{'}(qb+(1-q)a)=(b-a)(f^{'}(\theta)-f^{'}(qb+(1-q)a)) F(q)=f(b)f(a)(ba)f(qb+(1q)a)=(ba)(f(θ)f(qb+(1q)a))

f ′ ′ ( x ) &gt; 0 f^{&#x27;&#x27;}(x)&gt;0 f(x)>0可知 F ′ ( q ) F^{&#x27;}(q) F(q)先小于0然后大于0,所以 F ( q ) &lt; = 0 F(q)&lt;=0 F(q)<=0即函数 x ∈ [ a , b ] x\in [a,b] x[a,b] f ′ ′ ( x ) &gt; 0 f^{&#x27;&#x27;}(x)&gt;0 f(x)>0时, q ∈ [ 0 , 1 ] , q f ( b ) + ( 1 − q ) f ( a ) &gt; f ( q b + ( 1 − q ) a ) q\in [0,1],qf(b)+(1-q)f(a)&gt;f(qb+(1-q)a) q[0,1],qf(b)+(1q)f(a)>f(qb+(1q)a)

Markov不等式

假设 x x x是大于 0 0 0的随机变量,则有

E [ x ] = ∫ 0 ∞ x p ( x ) d x &gt; ∫ 0 ϵ 0 p ( x ) d x + ∫ ϵ ∞ ϵ p ( x ) d x &gt; ϵ P ( x &gt; ϵ ) E[x]=\int_0^\infty xp(x)dx&gt;\int_0^\epsilon 0p(x)dx+\int_\epsilon^\infty \epsilon p(x)dx &gt;\epsilon P(x&gt;\epsilon) E[x]=0xp(x)dx>0ϵ0p(x)dx+ϵϵp(x)dx>ϵP(x>ϵ)

P ( x &gt; ϵ ) &lt; E [ x ] ϵ P(x&gt;\epsilon)&lt;\frac{E[x]}{\epsilon} P(x>ϵ)<ϵE[x]

引理

x ∈ [ a , b ] , E [ x ] = 0 , t &gt; 0 x\in [a,b],E[x]=0,t&gt;0 x[a,b],E[x]=0,t>0,那么

P ( x &gt; s ) = P ( e t x &gt; e t s ) &lt; E [ e t x ] e s t P(x&gt;s)=P(e^{tx}&gt;e^{ts})&lt;\frac{E[e^{tx}]}{e^{st}} P(x>s)=P(etx>ets)<estE[etx]

e t x e^{tx} etx为凸函数可知

e t x &lt; b − x b − a e t a + x − a b − a e t b e^{tx}&lt;\frac{b-x}{b-a}e^{ta}+\frac{x-a}{b-a}e^{tb} etx<babxeta+baxaetb

那么

E [ e t x ] &lt; b − E [ x ] b − a e t a + E [ x ] − a b − a e t b E[e^{tx}]&lt;\frac{b-E[x]}{b-a}e^{ta}+\frac{E[x]-a}{b-a}e^{tb} E[etx]<babE[x]eta+baE[x]aetb

p = t ( b − a ) , h = a b − a p=t(b-a),h=\frac{a}{b-a} p=t(ba),h=baa,那么有

b b − a e t a − a b − a e t b = e t a [ b b − a − a b − a e t ( b − a ) ] = e t a [ 1 + a b − a − a b − a e t ( b − a ) ] = e x p ( p h + l n ( 1 + h − h e p ) ) \frac{b}{b-a}e^{ta}-\frac{a}{b-a}e^{tb}=e^{ta}[\frac{b}{b-a}-\frac{a}{b-a}e^{t(b-a)}]=e^{ta}[1+\frac{a}{b-a}-\frac{a}{b-a}e^{t(b-a)}]=exp(ph+ln(1+h-he^{p})) babetabaaetb=eta[babbaaet(ba)]=eta[1+baabaaet(ba)]=exp(ph+ln(1+hhep))

f ( p ) = p h + l n ( 1 + h − h e p ) f(p)=ph+ln(1+h-he^{p}) f(p)=ph+ln(1+hhep),那么

f ( 0 ) = 0 f(0)=0 f(0)=0

f ′ ( p ) = h − h e p 1 + h − h e p f^{&#x27;}(p)=h-\frac{he^{p}}{1+h-he^{p}} f(p)=h1+hhephep

f ′ ( 0 ) = 0 f^{&#x27;}(0)=0 f(0)=0

f ′ ′ ( p ) = − h e p ( 1 + h − h e p ) + ( h e p ) 2 ( 1 + h − h e p ) 2 = ( − h e p 1 + h − h e p ) ( 1 + h 1 + h − h e p ) f^{&#x27;&#x27;}(p)=-\frac{he^{p}(1+h-he^{p})+(he^{p})^2}{(1+h-he^{p})^2}=(-\frac{he^p}{1+h-he^{p}})(\frac{1+h}{1+h-he^{p}}) f(p)=(1+hhep)2hep(1+hhep)+(hep)2=(1+hhephep)(1+hhep1+h)

f ′ ′ ( p ) = y ( 1 − y ) &lt; 1 4 f^{&#x27;&#x27;}(p)=y(1-y)&lt;\frac{1}{4} f(p)=y(1y)<41

泰勒展开可得:

f ( p ) = f ( 0 ) + p f ′ ( 0 ) + p 2 2 f ′ ′ ( θ ) &lt; p 2 8 f(p)=f(0)+pf^{&#x27;}(0)+\frac{p^2}{2}f^{&#x27;&#x27;}(\theta)&lt;\frac{p^2}{8} f(p)=f(0)+pf(0)+2p2f(θ)<8p2

E [ e t x ] &lt; e x p [ ( b − a ) 2 8 t 2 ] E[e^{tx}]&lt;exp[\frac{(b-a)^2}{8}t^2] E[etx]<exp[8(ba)2t2]
P ( x &gt; s ) &lt; e x p [ − s t + ( b − a ) 2 8 t 2 ] P(x&gt;s)&lt;exp[-st+\frac{(b-a)^2}{8}t^2] P(x>s)<exp[st+8(ba)2t2]

Hoaffding定理证明

r 1 , r 2 , . . . , r n r_1,r_2,...,r_n r1r2,...,rn为模型的一组误差,为了简便,让他们分布在 [ − 0.5 , 0.5 ] [-0.5,0.5] [0.5,0.5],均值为0,令

r ^ = ∑ i r i n , r = E [ r ^ ] \hat r=\frac{\sum_i r_i}{n},r=E[\hat r] r^=niri,r=E[r^]

那么

P ( r ^ − r &gt; ϵ ) = e − t ϵ E [ e t ∑ i r i / n ] = e − t ϵ ∏ i E [ e t r i / n ] &lt; e x p [ − t ϵ + t 2 8 n ] P(\hat r-r&gt;\epsilon)=e^{-t\epsilon}E[e^{t\sum_ir_i/n}]=e^{-t\epsilon}\prod_i E[e^{tr_i/n}]&lt;exp[-t\epsilon+\frac{t^2}{8n}] P(r^r>ϵ)=etϵE[etiri/n]=etϵiE[etri/n]<exp[tϵ+8nt2]

t = 4 n ϵ t=4n\epsilon t=4nϵ,可得

P ( x &gt; s ) &lt; e x p [ − 2 n ϵ 2 ] P(x&gt;s)&lt;exp[-2n\epsilon^2] P(x>s)<exp[2nϵ2]

那么如果 k k k个模型训练的模型误差都满足 P ( r &lt; r ^ + ϵ ) &lt; ( 1 − k P ( r − r ^ &gt; ϵ ) ) P(r&lt;\hat r+\epsilon)&lt;(1-kP(r-\hat r&gt;\epsilon)) P(r<r^+ϵ)<(1kP(rr^>ϵ))(hoeffding不等式的对称性),则

P ( r &lt; r ^ + ϵ ) &lt; ( 1 − k ∗ e x p [ − 2 n ϵ 2 ] ) P(r&lt;\hat r+\epsilon)&lt;(1-k*exp[-2n\epsilon^2]) P(r<r^+ϵ)<(1kexp[2nϵ2])

δ = k ∗ e x p [ − 2 n ϵ 2 ] \delta = k*exp[-2n\epsilon^2] δ=kexp[2nϵ2],则模型以 1 − δ 1-\delta 1δ的概率满足任意训练的模型满足

r &lt; r ^ + 1 2 n ln ⁡ k δ r&lt;\hat r+\sqrt{\frac{1}{2n}\ln{\frac{k}{\delta}}} r<r^+2n1lnδk

这就给了训练出来的模型一个误差上界,若是参数域为无穷,可用VC维来给定上界

个人不喜欢这个解释,不直观,太繁琐,而且是个loose bound,让感觉很难受。

bias & variance & error

机器学习学到的模型预测的结果和真实结果的误差来源于三个地方,也就是bias(偏差),variance(方差),error(噪声),用公式可以表示为:

E x L ( f ( x ) + ϵ , f ~ ( x ) + [ f ^ ( x ) − f ^ ( x ) ] ) = F [ ϵ , f ( x ) − f ^ ( x ) , f ^ ( x ) ) − f ~ ( x ) ] E_xL(f(x)+\epsilon,\tilde f(x)+[\hat f(x)-\hat f(x)])=F[\epsilon,f(x)-\hat f(x),\hat f(x))-\tilde f(x)] ExL(f(x)+ϵ,f~(x)+[f^(x)f^(x)])=F[ϵ,f(x)f^(x),f^(x))f~(x)]

f ( x ) f(x) f(x)是客观世界的模型, ϵ \epsilon ϵ是观察噪声或者是样本产生过程中的系统噪声, f ^ ( x ) \hat f(x) f^(x)是当前模型下能够学习到的最好的模型参数下的模型, f ~ ( x ) \tilde f(x) f~(x)是用有限的训练样本实际训练出来的模型, L L L为损失函数, E x L E_xL ExL为泛化误差。

我们把 ∣ f ( x ) − f ^ ( x ) ∣ |f(x)-\hat f(x)| f(x)f^(x)成为bias(偏差),它越大说明本身模型越简单(欠拟合)
∣ f ^ ( x ) ) − f ~ ( x ) ∣ |\hat f(x))-\tilde f(x)| f^(x))f~(x)成为variance(方差),它越大说明模型过拟合越严重(把噪声当作是模型的输出进行拟合)。

Bias&Var

欠拟合产生的原因是拟合的模型过于简单,无法拟合真正的客观模型。
过拟合产生的原因是数据量太少,无法把模型的参数拟合得很好。

我们在进一步的挖掘一下,过拟合的原因从而更深刻的体会一下正则化的作用。

the amount of parameter vs the amount of data

Chebyshev 不等式 / 大数定理

由Markov不等式 P ( x &gt; ϵ ) &lt; E [ x ] ϵ P(x&gt;\epsilon)&lt;\frac{E[x]}{\epsilon} P(x>ϵ)<ϵE[x]可得

P [ ( 1 n ∑ i = 1 n X − E X ) 2 &gt; ϵ ] &lt; E [ ( 1 n ∑ i = 1 n X − E X ) 2 ] ϵ = σ 2 ϵ n 2 P[(\frac{1}{n}\sum_{i=1}^nX-EX)^2&gt;\epsilon]&lt;\frac{E[(\frac{1}{n}\sum_{i=1}^nX-EX)^2]}{\epsilon}=\frac{\sigma^2}{\epsilon n^2} P[(n1i=1nXEX)2>ϵ]<ϵE[(n1i=1nXEX)2]=ϵn2σ2

数据量和模型参数误差的关系

模型参数可以看成是模型维度的数据统计量(例如模型就是预测值就是直接输出训练集的平均值,那么参数就直接是数据的平均),那么,当参数多了之后,相当于把数据分给不同的参数减少,这可能有点难以理解,可以想象成一个决策树,分支之后每个分支的数据量减少,分支越多,每个分支的数据量就越少。或者还可以换个角度理解,确定A参数之后在确定B参数,B参数的误差会因为A参数的误差而增大。所以参数越多,误差就越大。
正则化为什么可以降低泛化误差呢,因为正则化相当于给参数之间一定的关系,例如 l 1 l_1 l1正则化相当于去掉一些参数,从而使得分配到每个参数上的数据量增多,而 l 2 l_2 l2正则化相当于参数之间共同进退,把异常值的贡献平均分配到各个参数上,因而参数分配数据量就不是数据量除以参数个数了,不同参数之间的相关性使得数据“公用”到各个参数上。

虽然这个解释不是很严谨,但是我个人感觉比较容易理解和直观。

P.S. 我自己自瞎想的,如有错误,还请有缘人指正

No Free Lunch Theorem

若学习算法 L a L_a La在某些问题(数据集)上比学习算法 L b L_b Lb要好,那么必然存在另一些问题(数据集),在这些问题中 L b L_b Lb L a L_a La表现更好。
符号说明:

  • Ξ \Xi Ξ:样本空间
  • H H H:假设空间
  • L a L_a La:学习算法
  • P ( h ∣ X , L a ) P(h|X,L_a) P(hX,La) : 算法 L a L_a La基于训练数据 X X X产生假设 h h h的概率
  • f f f:代表希望学得的真实目标函数
  • ote是off-training error,即训练集外误差
  • E o t e ( L a ∣ X , f ) = ∑ h ∑ x ∈ Ξ − X P ( x ) I ( h ( x ) ≠ f ( x ) ) P ( h ∣ X , L a ) E_{ote}(L_a|X,f)=\sum_h\sum_{x\in \Xi-X}P(x)I(h(x)≠f(x))P(h|X,L_a) Eote(LaX,f)=hxΞXP(x)I(h(x)̸=f(x))P(hX,La):算法 L a L_a La学得的假设在训练集外的所有样本上的误差的期望(这里的累加可以看作是积分的简化,积分更严谨的感觉;查阅文献后发现,该定理只是定义在有限的搜索空间,对无限搜索空间结论是否成立尚不清楚)

因为是存在性问题,我们就假设真实分布 ( x , f ( x ) ) (x,f(x)) (x,f(x)) f f f在假设空间内均匀分布,那么
E f [ E o t e ( L a ∣ X , f ) ] = ∑ f ∑ h ∑ x ∈ Ξ − X P ( x ) I ( h ( x ) ≠ f ( x ) ) P ( h ∣ X , L a ) P ( f ) E_f[E_{ote}(L_a|X,f)]=\sum_f\sum_h\sum_{x\in \Xi-X}P(x)I(h(x)≠f(x))P(h|X,L_a)P(f) Ef[Eote(LaX,f)]=fhxΞXP(x)I(h(x)̸=f(x))P(hX,La)P(f)

= ∑ x ∈ Ξ − X P ( x ) ∑ h P ( h ∣ X , L a ) ∑ f I ( h ( x ) ≠ f ( x ) ) P ( f ) =\sum_{x\in \Xi-X}P(x)\sum_hP(h|X,L_a)\sum_fI(h(x)≠f(x))P(f) =xΞXP(x)hP(hX,La)fI(h(x)̸=f(x))P(f)

= ∑ x ∈ Ξ − X P ( x ) ∑ h P ( h ∣ X , L a ) 2 ∣ Ξ ∣ 2 =\sum_{x\in \Xi-X}P(x)\sum_hP(h|X,L_a)\frac{2^{|\Xi|}}{2} =xΞXP(x)hP(hX,La)22Ξ

= 2 ∣ Ξ ∣ 2 ∑ x ∈ Ξ − X P ( x ) =\frac{2^{|\Xi|}}{2}\sum_{x\in \Xi-X}P(x) =22ΞxΞXP(x)

结果与算法 L a L_a La无关,说明在 f f f未知的情况下,没有任何一个算法比瞎猜强。

这个定理没啥实用性,但是体现了算法工程师存在的意义。在数据集未知的情况下调大厂的API跟瞎猜一个性质。在脱离实际意义情况下,空泛地谈论哪种算法好毫无意义,要谈论算法优劣必须针对具体学习问题。

  • 2
    点赞
  • 7
    收藏
    觉得还不错? 一键收藏
  • 1
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值