![6ed0229cc7e788590e84cbbed927c25e.png](https://i-blog.csdnimg.cn/blog_migrate/885bf9926302c2499a8f48a8c76a8bd7.png)
线性回归是最简单的机器学习算法,许多博客已经讲了很清楚了,而这其中有许多是参考了Andrew Ng(吴恩达)的教学视频。这篇文章以简洁的方式回顾利用梯度下降法学习线性回归模型。需要注意的是,与统计中经典的回归分析不同,机器学习是给计算机以训练集,让它“学习”出模型,而经典的回归分析则是人为地“估计”出回归系数。并且,机器学习无需经典的回归分析中繁琐的条件(Gauss-Markov假定等),适用性更广。而且当特征变量较多(在经典统计中叫自变量、解释变量、外生变量等),机器学习的效率更高。
我们回到线性回归模型。先考虑最简单的只有一个特征变量的情形。我们假定需要机器“学习”出来的模型为:
这里的
![equation?tex=h](https://i-blog.csdnimg.cn/blog_migrate/aaaa0c45ab419d3843f670e3128a981c.png)
![equation?tex=%5Ctheta_i%5Cin+%5Cmathbb+R%28i%3D0%2C1%29](https://i-blog.csdnimg.cn/blog_migrate/a306f24d384663a789f1b0e54ae4074f.png)
![equation?tex=%28%5Ctheta_0%2C%5Ctheta_1%29](https://i-blog.csdnimg.cn/blog_migrate/84b239ae6d6b18676a5d5c845c508117.png)
![equation?tex=%5Ctheta](https://i-blog.csdnimg.cn/blog_migrate/679f2e1de0bb439ac572e914fed0f16f.png)
其中