机器学习算法之正则化

本文探讨了机器学习中的正则化技术,以防止过拟合,提高模型的泛化能力。主要介绍了L1和L2两种正则化方法,并解释了它们在迭代优化过程中的更新公式。在在线优化方面,讨论了简单截断法和截断梯度法(TG),以应对在线模式下实现稀疏特征的需求。这两种方法在更新规则上有所不同,TG通过引入参数α来平滑截断过程。
摘要由CSDN通过智能技术生成
>By joey周琦

正则化

假设目标函数为 J , 比如 J 可以是对数似然函数的负数形式,特征 i 的系数为 wi , 系数向量 w=[w1,...,wK] ,假设一共有 K 个备选类。 机器学习(分类为例)的目标就是要解决一个优化问题

w=argminwL(w)

而为了避免模型的过拟合(overfitting), 所以需要在这里进行正则化(regularization)[2]。正则化的主要思想就是控制系数 |w| 的大小,从而控制模型的复杂度,减小过拟合,提高泛化能力,常见的正则化选择有一阶和二阶,如下
二阶(L2):

w=argminwL(w)+α/2k=1Kw2k

一阶(L1):

w=argminwL(w)+αk
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值