-
一、线性模型
-
设 x1 和 x2 是两个标量或维数相同的变量, α 和
β 为任意标量,则称 αx1+βx2 为 x1 和 x2 的线性组合。若 f 为x 的线性函数,则有
f(αx1+βx2)=αf(x1)+βf(x2)特别地,当 α=1−β 时, αx1+βx2 为 x1 和 x2 的加权平均,而 f 的线性性质决定了加权平均的函数值等于各函数值的加权平均。
若x=(x1,...,xn) 为向量,而 f(x) 为标量,则 f 的形式为:
其中, b=(b1,...,bn) 。f(x)=a+b1x1+...+bnxn=a+bx
线性模型可用于任何预测任务,包括分类、概率估计和回归。
-
二、多元线性回归
-
在回归分析中,如果有两个或两个以上的自变量,就称为多元回归。
多元线性回归的方程如下:
y=h(x)=hθ(x)=θ0+θ1x1+...+θnxn其中, θ=(θ0,θ1,...,θn) 就是方程的回归系数。
假设 (x1i,x2i,...,xni;yi),i=(1,2,...,m) ,为m组样本,在该样本下,回归方程的方程组形式如下:
y1=θ0+θ1x11+θ2x21+...+θnxn1y2=θ0+θ1x12+θ2x22+...+θnxn2...ym=θ0+θ1x1m+θ2x2m+...+θnxnm
利用矩阵运算,可表示为:
⎡⎣⎢⎢⎢⎢⎢y1y2⋮yn⎤⎦⎥⎥⎥⎥⎥=⎡⎣⎢⎢⎢⎢11⋮1x11x12⋮x1m⋯⋯⋮⋯xn1xn2⋮xnm⎤⎦⎥⎥⎥⎥⎡⎣⎢⎢⎢⎢θ0θ1⋮θn⎤⎦⎥⎥⎥⎥
令y=⎡⎣⎢⎢⎢⎢⎢y1y2⋮yn⎤⎦⎥⎥⎥⎥⎥X=⎡⎣⎢⎢⎢⎢11⋮1x11x12⋮x1m⋯⋯⋮⋯xn1xn2⋮xnm⎤⎦⎥⎥⎥⎥θ=⎡⎣⎢⎢⎢⎢θ0θ1⋮θn⎤⎦⎥⎥⎥⎥则在该组样本下,回归模型的矩阵表示为:hθ(x)=θTX这里 x0=1
-
三、损失函数
-
损失函数是用来估量模型的预测值 h(x) 与真实值 Y 的不一致程度,它是一个非负实值函数,损失函数越小,模型的鲁棒性就越好。定义回归函数和实际值之间差的均方和为损失函数:
m为样本数量,我们的目的是求出使损失函数 J(θ) 最小的参数 θ 的值。J(θ)=12m∑i=1m(hθ(x(i)−y(i))2
- 1.梯度下降法
-
θ 是包含所有参数的一维向量,我们先初始化一个 θ ,在这个θ 值之上,用梯度下降法去求出下一组 θ 的值,由于是梯度下降的,所以损失函数J(θ) 的值在下降。当迭代到一定程度, J(θ) 的值趋于稳定,此时的 θ 即为要求得的值。
方法如下:
(1)先确定向下一步的步伐大小,即α;
(2)任意给定一个初始值:θ;
(3)确定一个向下的方向,并向下走预先规定的步伐,并更新,即∂∂θjJ(θ) ;
(4)当下降的高度小于某个定义的值,则停止下降;
迭代函数如下:
θj:=θj−α∂∂θjJ(θ)=θj−α1m∑i=1m(hθ(x(i))−y(i))x(i)jj=(0,1,...,n)x(i)j 代表第 i 个样本集的第j 个特征
即θ0:θ0−α1m∑i=1m(hθ(x(i))−y(i))x(i)0θ1:θ1−α1m∑i=1m(hθ(x(i))−y(i))x(i)1...θn:θn−α1m∑i=1m(hθ(x(i))−y(i))x(i)n
2.最小二乘法
最小二乘法推导出来的公式为: