语言lasso步骤_机器学习算法之LASSO算法

LASSO回归是一种有监督机器学习的回归方法,适用于处理高维数据和多重共线性问题。通过L1正则化,它可以筛选变量并降低模型复杂度。然而,LASSO可能会对大系数过度压缩,且不适合非线性问题。坐标下降法是常用的求解策略。本文展示了如何用Python实现LASSO回归,并通过示例说明了如何调整alpha参数来影响模型的系数估计。
摘要由CSDN通过智能技术生成
算法名称: LASSO的全称Least Absolute Shrinkage and Selection Operator,即最小绝对收缩选择算子。

算法的适用场景: Lasso回归是有监督机器学习的一种常见的回归方法。

算法的基本逻辑:

 一般来说,有监督的机器学习都有以下形式的优化目标:

bbfc9a67716fc4e3340c5627812f7761.png

其中第一部分就是Loss函数,第二部分正则化项。由此可以看出基本上所有的有监督机器学习,其核心思想无非就是正则化参数的同时最小化经验误差函数。最小化经验误差是为了极大程度的拟合训练数据,正则化参数是为了防止过分的拟合训练数据。Lasso回归也称线性回归模型的L1正则化,其基本思想是在回归系数的绝对值之和小于一个常数的约束条件下,使残差平方和最小化,从而能够产生某些严格等于0 的回归系数,得到可以解释的模型。

但在Lasso回归的求解过程中,由于采用了L1范数也就是各元素绝对值之和进行正则化,从而导致目标函数存在不可导点,因此最小二乘法,梯度下降法,牛顿法,拟牛顿法都失效了。目前,在Lasso回归的求解中比较流行的是坐标下降法(Coordinate Descent)。坐标下降法顾名思义,是沿着坐标轴的方向去下降,通过启发式的方式一步步迭代求解函数的最小值。坐标轴下降法的数学依据主要

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值