正则化(经验风险最小化与结构风险最小化)

经验风险最小化,是根据定义的cost函数,来使训练集合的cost(损失)函数的整体最小,一般常见的的损失函数有一下:







当选定了损失函数以后,就可以确定经验风险函数:1/N * L(yi, f(xi)) ( i的范围是1到N的所有训练集做累加);

所谓经验风险最小化就是确定模型的参数使得经验风险函数最小。

但是当训练集合很小而训练集合的元素特征又比较多的时候,单单使用经验风险最小化函数,会造成模型过拟合现象(过拟合就是训练出来的模型对训练集合的预测效果很好,但对新引入的数据预测效果很差。)


解决上面这种情况:有两种方法,1、减少特征,这样可以避免过拟合现象,但是会导致模型未能更多的利用有效信息。

2,正则化(结构风险最小化)。

也就是训练的目标改为使得结构风险函数最小:


J(f) 表示的是模型的复杂度,前面的是系数。一般J(f)是模型参数向量的1范数或者是2范数。

这样在原来的基础之上加入后面的限制之后,会使得在训练的过程中使得模型的参数总体尽可能变小,会使得模型避免过拟合现象。

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值