L1,L2正则化理解-奥卡姆剃刀原理

文章转自: https://blog.csdn.net/u011534057/article/details/51218921

在监督学习中,所涉及到的问题就是“minimize the error while regualrizing the parameters”,也就是说,在规则话参数的同时最小化误差。最小化误差是为了让模型拟合训练数据,而规则话则是为了防止模型过分拟合训练数据。

奥卡姆剃刀原理思想就是在所有可能选择的模型厚葬,选择一个能够很好解释已知数据并且十分简单的模型。从贝叶斯估计的角度来看,规则化项对应模型的先验概率。还有个说法就是规则化就是结构风险最小化策略的实现,在经验风险上加一个正则化项(或者惩罚项)。

 一般来说,监督学习可以看作最小化下面的目标函数:

 

转载于:https://www.cnblogs.com/xiaozhch5/p/10522391.html

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值