![c7fcf99a9687d5db90716cdec04fa79a.png](https://i-blog.csdnimg.cn/blog_migrate/8004361390cc8aa7367b5c536f7c05af.jpeg)
写在前面:
![aa6eb4e4c50577c03a30069670182b3b.png](https://i-blog.csdnimg.cn/blog_migrate/0bd3a189c07f4e394605b4418c276d06.jpeg)
机器学习可以按照学习方式大致分为有监督、无监督和强化学习三类,而有监督学习具体可以分为回归和分类两种问题,而线性回归顾名思义就属于回归问题,而且还是线性的。
可能有朋友容易对“回归”二字不解,什么是“回归”,是回归故乡的意思吗?不是,但也差不多,用人话说就是:有一组自变量,和因变量,它们之间是有关系的,但这个关系却不是很明显,所以我们可以通过其他手段获得一个公式(模型)来表示它们之间的关系,从而达到预测其他自变量通过这个公式得出的因变量,这个公式可以表示它们之间的大致关系,也就是回归模型。
接下来笨笔将通过一些非常简单的例子来说明白一元线性回归的来龙去脉,只看总结可以直接跳到最后~
希望各位朋友看完后,能对以下东西有个简单理解:
什么是数据集? 表示数据信息的集合 |
为什么需要误差项? 一个代替总误差的公式 |
为什么偏导为0是目标参数的最小值?二次函数偏导为0处结果最小 |
如何预测信息? 对模型输入自变量 |
一,一元线性回归的数据集
让我们先看下面的这张图:
![9436192ecb895261a27c15257a7b6edb.png](https://i-blog.csdnimg.cn/blog_migrate/29036d5e68a67779b5229da84779da67.png)
一共有20个点,每个点可以用
![2adb88cf954b12e3d055b1a9700b23ab.png](https://i-blog.csdnimg.cn/blog_migrate/ff05b83b38e6c941c88ee45dc3c4cc72.png)
现在我们有了这样一组数据,要怎么表示它们自变量和因变量的关系呢?如果有一个新的自变量是30,那我们能预测它的因变量吗?答案是肯定的,能预测(但不一定对)。这就引出了回归问题了。
二,一元线性回归的模型
一元是一个自变量,线性可以简单理解为自变量与因变量为一次方关系,比如:
我们初中就学过一次函数,它长这样: