#入门模型,记录学习内容并予以分享。
------Yc
本篇主要介绍线性回归及其三个模型算法,最小二乘法(OLS),岭回归(Ridge),Lasso回归。
1.线性回归
线性模型将有监督学习模型定义为类似公式的多项式函数:
线性模型就是为了确定的值,使y可根据特征值
直接得到。其中,
被称为截距(intercept),
被称为回归系数。
同时,一些大相径庭的多项式都是线性模型(能够转化为公式1),如:
非线性模型有更多形式,如:
2.最小二乘法
通过最小化方差来计算截距和参数,即:
式中,argmin(i)的意思为最小化i来求所需的各个参数,为样本预测值,y为真值。
缺点:在对多维数据进行拟合时,容易出现过拟合。即:参数w特别大(到达几万甚至更大),样本x稍微变化,则预测值的改变会特别大。为此采用惩罚措施对参数进行制约。
3.岭回归(L2正则化)
通过改变回归目标函数,达到了控制回归参数值随维度疯狂增长的目的。新目标函数为:
目标函数将加入了最小化目标,其中α是一个可以调节的参数,w是线性模型中的所有参数(包括截距)。
定义解释:
在岭回归中,L2范数是一种衡量向量长度的方法。对于一个n维的向量x=(x1, x2, ..., xn),它的L2范数定义为向量中所有元素的平方和的平方根,L2范数表示为
L2也可以度量两个向量间的差异,如平方差和(Sum of Squared Difference):
优点:岭回归模型对噪声的压抑性更强,在多维回归中模型参数显著降低,并且α参数的大小与训练的回归参数w呈反向关系:α越大,回归参数越小,模型越平缓。
缺点:无论α多大,回归模型参数都有非常小的绝对值,很难造成零值,使在大数据系统中的数据产生、存储、计算等方面不利。因此产生Lasso回归。
4.Lasso回归(L1正则化)
将不重要的特征参数计算为零,其目标函数形式为:
惩罚效果比岭回归严厉得多,可以使多数回归参数为零,从而简化计算,相当于压缩了相关特征。
定义解释:
L1范数表示为
使用 L1范数可以度量两个向量间的差异,如绝对误差(Sum of Absolute Difference):
就到这里吧,有用的话点个赞支持一下呗~