机器学习——结构风险最小化(SRM)

结构风险最小化(SRM)是一种统计学习理论中的原则,它不同于经验风险最小化(ERM),SRM会在模型复杂度和数据拟合之间寻找平衡,以提高泛化能力。SRM通过考虑函数集的VC维来最小化实际风险,防止过学习,例如支持向量机(SVM)就是SRM思想的应用。
摘要由CSDN通过智能技术生成

问:基于结构风险最小化 (SRM)原则会倾向于选择更复杂的模型,因此其泛化能力一般较差。

答:错误,基于经验风险最小化(ERM)会倾向于选择更复杂的模型。基于结构风险最小化原则的模型选择会考虑模型的复杂度和数据拟合程度,从而找到一个在偏差和方差之间平衡的最优模型,一般能够获得较好的泛化能力。

1、定义

  统计学习理论提出了一种新的策略,即把函数集构造为一个函数子集序列,使各个子集按照VC维的大小排列;在每个子集中寻找最小经验风险,在子集间折衷考虑经验风险和置信范围,取得实际风险的最小。这种思想称作结构风险最小化(Structural Risk Minimization),即SRM准则

2、经验风险与真实风险的关系

  统计学习理论系统地研究了对于各种类型的函数集,经验风险和实际风险之间的关系。得出如下结论:对指示函数集中的所有函数(包括使经验风险最小的函数), 经验风险 和实际风险 之间以至少 的概率满足如下关系:

                                             R(w) \leq R_{\text { owp }}(w)+\sqrt{\frac{h(\ln (2 n / h)+1)-\ln (\eta / 4)}{n}}

  其中h是函数集的VC维,n是样本数.

  这一结论从理论上说明了学习机器的实际风险是由两部分组成的:

一是经验风险(训练误差),另一部分称作置信范围,它和学习机器的VC维及训练样本数有关。 

  上式可以简单地表示为:

                                                           R(w) \leq R_{e m p}(w)+\phi(h / n)

  它表明,在有限训练样本下,学习机器的VC维(h)越高(复杂性越高)则置信范围越大,导致真实风险与经验风险之间可能的差别越大.这就是为什么会出现过学习现象的原因.机器学习过程不但要使经验风险最小,还要使VC维尽量小以缩小置信范围,才能取得较小的实际风险,即对未来样本有较好的推广性.      

3、结构风险最小化(SRM)的基本思想

  传统机器学习方法中普遍采用的经验风险最小化原则在样本数目有限时是不合理的, 会出现过学习现象(训练误差小并不总能导致好的预测效果.某些情况下,训练误差过小反而会导致推广能力的下降,即真实风险的增加,这就是过学习问题), 因此,需要同时最小化经验风险和置信范围。

  为此,统计学习理论提出了一种新的策略,即把函数集构造为一个函数子集序列,使各个子集按照VC维的大小排列;在每个子集中寻找最小经验风险,在子集间折衷考虑经验风险和置信范围,取得实际风险的最小。这种思想称作结构风险最小化(Structural Risk Minimization),即SRM准则。  

 

4、实现思路

  实现SRM的思路之一就是设计函数集的某种结构使每个子集中都能取得最小的经验风险(如使训练误差为0),然后只需选择适当的子集使置信范围最小,则这个子集中使经验风险最小的函数就是最优函数。SVM方法实际上就是这种思想的具体实现。

  实现SRM另一种思路是在每个子集中求最小经验风险,然后选择使最小经验风险和置信范围之和最小的子集.显然这种方法比较费时,当子集数目很大甚至是无穷时不可行.

  • 0
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

肉肉肉肉肉肉~丸子

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值