机器学习笔记整理(二)——最小二乘法

本文介绍了最小二乘法及其在机器学习中的应用,包括带有约束条件的最小二乘法、稀疏学习以及鲁棒学习。最小二乘法适用于小规模数据,而带有约束的最小二乘法能有效防止过拟合。稀疏学习通过L1范数约束实现参数的稀疏性,提高模型解释性。鲁棒学习则关注异常值处理,如Huber损失函数和图基损失函数,提供更好的异常值抵抗力。
摘要由CSDN通过智能技术生成

1.最小二乘法

最小二乘法也叫做^{l_{2}}损失最小化学习法,适用于较小规模数据的学习,有过拟合的弱点。

梯度下降法是适用于大规模数据学习的算法,该方法的收敛速度依赖于梯度下降的步幅及收敛结果的判断方法。

 

2.带有约束条件的最小二乘法

原因:当参数较多时,求解参数及学习得到的函数的输出值的过程耗费大量的时间

优点:省时、防止过拟合

(1)部分空间约束的最小二乘法

只使用参数空间的一部分,保证参数θ不偏移到值域R(P)范围之外,通过正交投影矩阵P实现约束

如果使用主成分分析法求解该部分空间,则该方法为主成分回归PCA

约束条件:Pθ=θ

假设只有两个参数,约束后参数空间如下图所示:

问题:P的设置有很大的自由度,实际操作有较大难度。

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值