机器学习入门(二)——机器为何能学?

本文探讨了机器学习中大数定律的作用,解释了模型复杂度与样本数量的关系,强调了样本量的重要性。同时,介绍了欠拟合和过拟合的概念,过拟合是由于模型复杂度过高或数据不足导致的。解决过拟合的方法包括正则化和数据集划分。正则化通过限制参数权重来避免模型过度复杂,而交叉验证有助于优化模型性能,确保样本数据的有效利用。
摘要由CSDN通过智能技术生成

机器为何能学

大数定律或 Hoeffding’ s inequality指出:样本数越大,统计值与真实值接近的概率越高。
大数定律与生活:是金子总会发光的。出来混,总是要还的。

前提一:假设空间不能过大

Hoeffding’ s inequality指出,一个假设出现乐观欺骗的概率的上限为 :
2 e x p ( − 2 ε 2 N ) 2exp(-2\varepsilon^2N) 2exp(2ε2N)
那么 M M M个假设就会使这个概率增大 M M M倍,即概率的上限变为了:
2 M e x p ( − 2 ε 2 N ) 2Mexp(-2\varepsilon^2N) 2Mexp(2ε2N)
为了使这个概率收敛,这就要求我们的模型不能过于复杂,即假设空间的增长速度至少小于指数级别。

如何达到呢?

对于一个假设,如果从 N N N个样本开始,模型无法表示全部解的可能,那么将 N N N称为Break Point,这时 N − 1 N-1 N1就被称为Vc-dim(至于这东西怎么求,我也不知道)。
数学上可以证明,当样本数量超过Break Point时, M M M逐渐<< 2 N 2^N 2N。因此样本数量要充足。样本量的实际经验, N > 10 ∗ N>10* N>10Vc-dim
例如,对于线性模型,Vc-dim=特征数量+1。越复杂的模型需要越多的样本数量。

前提二:适当拟合

欠拟合与过拟合的例子与表现形式

请添加图片描述
在这里插入图片描述
请添加图片描述

欠拟合

如上图用一次多项式拟合正弦曲线。
原因:模型复杂度过低或样本量太少导致没有捕捉到正确的规律。

过拟合

如上图用25次多项式拟合正弦曲线。
原因:模型复杂度过大(假设空间过大)且样本数据噪音太大或数据量不足导致捕捉到了很多误差,并不是正确规律。
解决方法:正则化与校验。

正则化

限制参数平方值。
方案一:在 W T W < C W^TW<C WTW<C的前提下求 E i n ( 模 型 对 于 样 本 量 的 误 差 ) Ein(模型对于样本量的误差) Ein()的最小值。
方案二:求 E i n ( w ) + λ W T W Ein(w)+\lambda W^TW Ein(w)+λWTW的最小值。
两种方法等价,选第二种更方便。
如正则化的线性模型
请添加图片描述

校验

将数据集切分为样本集和测试集。
新的学习流程
请添加图片描述
如何解决样本数据被浪费的问题?Cross validation
请添加图片描述

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值