【机器学习】<刘建平Pinard老师博客学习记录>Lasso回归算法: 坐标轴下降法与最小角回归法

一、回顾线性回归:

线性回归:
【每日一更】<吴恩达-机器学习>单变量的线性回归&认识梯度下降_故里的博客-CSDN博客一、单变量线性回归 - Linear regession with one variable:Supervised Learning: Gives the "right answer" for each example in the data.Regression Problem: Redict real-valued outputClassfication Problem: Discrate-value output1.常用字符标识:(x, y) = One training..https://blog.csdn.net/weixin_52058417/article/details/121882083?spm=1001.2014.3001.5502

【每日一更】<吴恩达-机器学习>多变量线性回归&学习率&特征值_故里的博客-CSDN博客目录一、Linear Regression with multiple variable - 多变量线性回归:二、Gradient descent for multiple carables - 多变量梯度下降:三、Feature Scaling - 特征缩放:1.特征缩放方法:2.归一化和标准化的区别:四、Learning rate - 学习率:五、Features and polynomial regression:一、Linear Regression with mu.https://blog.csdn.net/weixin_52058417/article/details/121918675?spm=1001.2014.3001.5502


二、回顾Ridge回归:


三、初识Lasso回归:

        Lasso回归有时也叫做线性回归的L1正则化,和Ridge回归的主要区别就是在正则化项,Ridge回归用的是L2正则化,而Lasso回归用的是L1正则化。


四、用坐标轴下降法求解Lasso回归:

        坐标轴下降法顾名思义,是沿着坐标轴的方向去下降,这和梯度下降不同。梯度下降是沿着梯度的负方向下降。不过梯度下降和坐标轴下降的共性就都是迭代法,通过启发式的方式一步步迭代求解函数的最小值。

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

爱吃糖的范同学

你的鼓励是我创作的最大动力!

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值