0 引言
线性回归问题在不同的背景下有不同的表述,
- 机器学习
给定一组输入 D = { ( x 1 , y 1 ) , ⋯ , ( x m , y m ) } D=\{(x_1,y_1),\cdots,(x_m,y_m)\} D={ (x1,y1),⋯,(xm,ym)},其中 x i = [ x i 1 , ⋯ , x i n ] T x_i=\left[x_i^1,\cdots,x_i^n\right]^T xi=[xi1,⋯,xin]T是一个 n n n维列向量,线性回归问题是求出损失函数最小的 θ \theta θ
m i n J ( θ ) = m i n ∑ i = 1 m ( y i − x i T θ ) 2 minJ(\theta)=min\sum_{i=1}^{m}(y_i-x_i^T\theta)^2 minJ(θ)=mini=1∑m(yi−xiTθ)2
主要有梯度下降法 - 数值计算
在数值计算方法中,求参数 θ \theta θ的过程称为数据拟合或曲线拟合,常用的算法维最小二乘法。
首先介绍线性回归问题的解法中,实施起来最简单的最小二乘法。
1 最小二乘法
1.1最小二乘法推导
误差平方和为
J ( θ ) = ∑ i = 1 m ( x i T θ − y i ) 2 = ( X θ − Y