开始写线性回归的时候有点犯难,想不好写什么类型的会对大家有帮助,如果列出知识点有点枯燥,加入案列现在没有实际遇到这方面案例,网上找来做的案列作者写的比我的好多了。最后本着脚踏实地列出知识点,给学过的同学一个复习的内容。
线性回归:
一、什么是回归分析法
“回归分析”是解析“注目变量”和“因于变量”并明确俩者关系的统计方法。此时,我们把因子变量称为“说明变量”,把注目变量称为“目标变量”。清楚了回归分析的目的后,下面我们以回归分析预测法的步骤来说明什么是回归分析法:
回归分析是对具有因果关系的影响因素(自变量)和预测对象(因变量)所进行的数理统计分析处理。只有当变量与因变量确实存在某种关系时,建立的回归方程才有意义。因此,作为自变量的因素与作为因变量的预测对象是否有关,相关程度如何,以及判断这种相关程度的把握性多大,就成为进行回归分析必须要解决的问题。进行相关分析,一般要求出相关关系,以相关系数的大小来判断自变量和因变量的相关的程度。
二、回归分析的目的
回归分析的目的大致可分为俩种:
第一,“预测”。预测目标变量,求解目标变量y和说明变量(x1,x2,。。。)的方程
y=a+b1*x1+b2*x2+....+bk*xk+误差(方程A)
把方程A叫做(多元)回归方程或者(多元)回归模型。a是截距,b1,b1,.....,bk是回归系数。当k=1时,只有一个说明变量,叫做一元回归方程。根据最小平分法求解最小误差平分和,非求出y截距和回归系数。若求解回归方程,分别代入x1,x2,...,xk的数值,预测y的值。
第二,“因子分析”。因子分析是根据回归分析结果,得出各个自变量对目标变量产生的影响,因此,需要求出各个自变量的影响程度。
根据最小平分法,求解y=a+bx中的a和b。那么什么是最小平方法?
分别从散点图的各个数据标记点,做一条平行于y轴的平行线,相交于图中直线(如下图)
平行线的长度在统计学中叫做“误差”或者“残差”。误差(残差)是指分析结果的运算值和实际值间的差。接着