Liner-Regression 线性回归
线性回归模型本质是一系列特征的线性组合,在二维空间表现为一条直线,三维空间表现为平面方程,高维空间表现为超平面。
1 模型:线性模型
f ( x ) = w T x + b f(x)=w^Tx+b f(x)=wTx+b
w ⃗ = [ w 1 , w 2 , . . . , w n ] \vec{w}=[w_1,w_2,...,w_n] w=[w1,w2,...,wn]表示特征向量 x ⃗ = [ x 1 , x 2 , . . . , x n ] \vec{x}=[x_1,x_2,...,x_n] x=[x1,x2,...,xn]所占权重系数, b b b表示所有特征为0时的回归值。
以超平面方程来解释: w ⃗ \vec{w} w为超平面的法向量, b b b为超平面偏离原点的距离。
2 策略:损失函数
表示回归值与真实值的偏差。求解损失函数最小值时的 w ⃗ \vec{w} w