%回归分析
%%%%%%%%
%RCS
%在实际生活中,某种现象的发生与某种结果的得出往往与其他某个或某些因素有关,但这种关系又不是确定的,只是从数据上可以看出有“有关”的趋势。
%回归分析就是用来研究具有这种特征的变量之间的相关关系的。
%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%
%%%%%%%%%%
%%线性回归
%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%
%假设因变量与自变量之间为线性关系,用一定的线性回归模型来拟合因变量和自变量的数据,并通过确定模型参数来得到回归方程;
%当自变量只有一个时,称为一元线性回归;当自变量有多个时,称为多元线性回归。
%1.一元线性回归
%(1)回归模型与参数的确定:
%回归模型:y=b0+b1x
%y为因变量,x为自变量,b0,b1为待定参数(b0称为常数项,b1称为回归系数)。
%通常采用最小二乘法来确定上面两个待定参数,即要求观测值与利用上面回归模型得到的拟合值之间差值的平方和最小。差值平方和达到最小时的模型参数便作为待定参数的最终取值,代入模型,便可确定回归模型。
%(2)回归系数的显著性检验
%给定以上模型和实测数据以后,总可以得到待定参数的拟合值,但由此确定的回归方程式不一定有意义。因此,需要对得到的回归系数做显著性检验,即检验回归系数是否为0。如果为0,则说明因变量与自变量无关,回归方程无意义。
%回归系数的显著性检验有多种方法:F检验法、t检验法和相关系数检验法。
%F检验法:为了对回归方程做显著性检验,首先将观测量和拟合值差值的平方和(SS)分解为回归平方和(SSR)和残差平方和(SSE),F=SSR/(SSE/(n-2));当F值大于一定的临界值时,拒绝原假设,认为因变量与自变量之间是相关的。
%t检验法
%相关系数检验法:R=SUM((Xi-averageX)*(Yi-averageY))/sum(Xi-averageX)^2*sum(Yi-averageY)^2
R为相关系数,当相关系数的绝对值大于一定的临界值时,拒绝原假设。
%(3)回归系数的区间估计
%由最小二乘法得到的是回归系数的点估计(称为最小二乘估计),实际问题中常要求给出回归系数的置信区间。
%(4)预测
%经检验回归系数为显著的以后,便可利用回归方程式做预测。只要输入自变量的一个取值,便可获得一个因变量的估计值。当给定预测精度时就可获得回归系数的预测区间。