- OLS回归
利用OLS法通过一系列的预测变量来预测响应变量,OLS回归拟合模型的形式
n:观测的数目
k:为预测变量的数目
:第 i 次观测对应的因变量的预测值(具体来讲,它是在已知预测变量值的条件下,对 Y 分布估计的均值)
:第 i 次观测对应的第 j 个预测变量值
:截距项(当所有的预测变量都为 0 时,Y 的预测值)
:预测变量 j的回归系数(斜率表示 Xj 改变一个单位所引起的 Y 的改变量)
目标是减少响应变量的真实值与预测值的差值来获得模型参数(截距项和斜率),具体而言,即使的残差平方和最小
为了能够恰当的解释OLS模型的系数,数据必须满足以下统计假设
正态性:对于固定的变量值,因变量值成正态分布
独立性: Yi 值之间互相独立
线性:因变量与自变量之间为线性关系
同方差性:
因变量的方差不随自变量的水平不同而变化,也可称做不变方差
如果违背了以上假设,统计的显著性检验结果和所得到的置信区间就很可能不精确了,注意,OLS回归还假定自变量是固定的且测量无误差,但在事件中通常都放松这个假设