机器学习(二)之线性回归
线性回归(Linear Regression)
通俗来讲,线性回归就是给定一组数据,将其拟合成为一条直线,使之尽可能精确地刻画该组数据的变化趋势。
比如我们初中学过的直线方程: y = k x + b y = kx +b y=kx+b就是一个最简单的线性回归表达式。
直观理解:
给定一组散点如下图,线性回归即是将这组三点拟合成一条直线,使得拟合后的值与给定值误差最小。
单变量线性回归(Linear regression with one variable)
如其名。只存在一个变量的线性回归。最简单的线性回归问题。
1.数学问题表达:
Hypothesis: h Θ ( x ) = Θ 0 + Θ 1 x h_\Theta(x) = \Theta_0 + \Theta_1x hΘ(x)=Θ0+Θ1x
Parameters: $ \Theta_0, \Theta_1$
Cost Function: J ( Θ 0 , Θ 1 ) = 1 2 m Σ i = 1 m ( h Θ ( x ( i ) ) − y ( i ) ) 2 J(\Theta_0, \Theta_1) = \frac {1} {2m} \Sigma^m_{i=1}( h_\Theta(x^{(i)})-y^{(i)} )^2 J(Θ0,Θ1)=2m1Σi=1m(hΘ(x(i))−y(i))2
Goal: m i n i m i z e Θ 0 , Θ 1 J ( Θ 0 , Θ 1 ) minimize_{\Theta_0, \Theta_1} J(\Theta_0, \Theta_1) minimizeΘ