一、回顾线性回归:
线性回归:
【每日一更】<吴恩达-机器学习>单变量的线性回归&认识梯度下降_故里的博客-CSDN博客一、单变量线性回归 - Linear regession with one variable:Supervised Learning: Gives the "right answer" for each example in the data.Regression Problem: Redict real-valued outputClassfication Problem: Discrate-value output1.常用字符标识:(x, y) = One training..https://blog.csdn.net/weixin_52058417/article/details/121882083?spm=1001.2014.3001.5502
二、回顾Ridge回归:
三、初识Lasso回归:
Lasso回归有时也叫做线性回归的L1正则化,和Ridge回归的主要区别就是在正则化项,Ridge回归用的是L2正则化,而Lasso回归用的是L1正则化。
四、用坐标轴下降法求解Lasso回归:
坐标轴下降法顾名思义,是沿着坐标轴的方向去下降,这和梯度下降不同。梯度下降是沿着梯度的负方向下降。不过梯度下降和坐标轴下降的共性就都是迭代法,通过启发式的方式一步步迭代求解函数的最小值。