目录
5.1 二元线性回归
y
i
=
α
+
β
x
i
1
+
γ
x
i
2
+
ε
i
y_i=\alpha+\beta x_{i1}+\gamma x_{i2}+\varepsilon_i
yi=α+βxi1+γxi2+εi
OLS估计量的最优化问题仍为残差平方和最小化:
m
i
n
α
^
,
β
^
,
γ
^
∑
i
=
1
n
e
i
2
=
∑
i
=
1
n
(
y
i
−
α
^
−
β
^
x
i
1
−
γ
^
x
i
2
)
2
\mathop{min}\limits_{\hat\alpha,\hat\beta,\hat\gamma}\sum\limits_{i=1}^ne_i^2=\sum\limits_{i=1}^n(y_i-\hat\alpha-\hat\beta x_{i1}-\hat\gamma x_{i2})^2
α^,β^,γ^mini=1∑nei2=i=1∑n(yi−α^−β^xi1−γ^xi2)2
从几何上,找到一个回归平面,使得所有样本点离此回归平面最近
cobb_douglas.dta
柯布-道格拉斯生产函数:
y
t
=
α
k
t
β
l
t
γ
e
ε
t
y_t=\alpha k_t^\beta l_t^\gamma e^{\varepsilon_t}
yt=αktβltγeεt
两边同时取对数,转化为线性模型:
l
n
y
t
=
l
n
α
+
β
l
n
k
t
+
γ
l
n
l
t
+
ε
t
ln{y_t}=ln{\alpha}+\beta ln{k_t}+\gamma ln{l_t}+\varepsilon_t
lnyt=lnα+βlnkt+γlnlt+εt
二元回归的命令:regress y x1 x2
use cobb_douglas.dta,xlear
list
reg lny lnk lnl
predict lny1 //将lny的拟合值记为“lny1”
predict e,residual //计算残差,记为e,选择项“residual”表示计算残差,如果省略此选择项,则默认计算拟合值
list lny lny1 e
line lny lny1 year,lpattern(solid dash)
根据回归结果,可得样本回归平面:
l
n
y
t
^
=
−
0.177
+
0.233
l
n
k
t
+
0.807
l
n
l
t
\widehat{ln{y_t}}=-0.177+0.233ln{k_t}+0.807ln{l_t}
lnyt
=−0.177+0.233lnkt+0.807lnlt
产出对数的预测值与实际值相当吻合
5.2 多元线性回归模型
y
i
=
β
1
x
i
1
+
β
2
x
i
2
+
…
+
β
K
x
i
K
+
ε
i
(
i
=
1
,
…
,
n
)
y_i=\beta_1x_{i1}+\beta_2x_{i2}+\ldots+\beta_Kx_{iK}+\varepsilon_i\quad(i=1,\ldots,n)
yi=β1xi1+β2xi2+…+βKxiK+εi(i=1,…,n)
绝大多数下,回归方程有常数项,故常令
x
i
1
≡
1
x_{i1}\equiv1
xi1≡1,方程简化为
y
i
=
β
1
+
β
2
x
i
2
+
…
+
β
K
x
i
K
+
ε
i
y_i=\beta_1+\beta_2x_{i2}+\ldots+\beta_Kx_{iK}+\varepsilon_i
yi=β1+β2xi2+…+βKxiK+εi
y
i
=
(
1
x
i
2
…
x
i
K
)
(
β
1
β
2
⋮
β
K
)
+
ε
i
y_i=(1\quad x_{i2}\quad\ldots\quad x_{iK}) \begin{pmatrix} \beta_1\\ \beta_2\\\vdots\\ \beta_K \end{pmatrix} +\varepsilon_i
yi=(1xi2…xiK)
β1β2⋮βK
+εi
定义列向量:
x
i
=
(
1
x
i
2
…
x
i
K
)
⊤
\boldsymbol{x_i}=(1\quad x_{i2}\quad\ldots\quad x_{iK})^\top
xi=(1xi2…xiK)⊤
参数向量:
β
=
(
β
1
β
2
…
β
K
)
⊤
\boldsymbol{\beta}=(\beta_1 \quad\beta_2\quad \ldots\quad\beta_K)^\top
β=(β1β2…βK)⊤
y i = x i ⊤ β + ε i y_i= \boldsymbol{x_i^\top \beta}+\varepsilon_i yi=xi⊤β+εi
向量
y
≡
(
y
1
y
2
⋮
y
n
)
=
(
x
1
⊤
x
2
⊤
⋮
x
n
⊤
)
β
+
(
ε
1
ε
2
⋮
ε
n
)
=
X
β
+
ε
\boldsymbol{y}\equiv \begin{pmatrix} y_1\\ y_2\\ \vdots\\ y_n \end{pmatrix} =\begin{pmatrix} \boldsymbol{x_1^\top}\\ \boldsymbol{x_2^\top}\\ \vdots\\ \boldsymbol{x_n^\top} \end{pmatrix}\boldsymbol{\beta}+ \begin{pmatrix} \varepsilon_1\\ \varepsilon_2\\ \vdots\\ \varepsilon_n \end{pmatrix}=\boldsymbol{X\beta+\varepsilon}
y≡
y1y2⋮yn
=
x1⊤x2⊤⋮xn⊤
β+
ε1ε2⋮εn
=Xβ+ε
数据矩阵:
n
×
K
n\times K
n×K, n个个体,每个个体K个解释变量
X
≡
(
1
x
12
…
x
1
K
1
x
22
…
x
2
K
⋮
⋮
⋮
1
x
12
…
x
n
K
)
n
×
K
\boldsymbol{X}\equiv \begin{pmatrix} 1&x_{12}&\ldots&x_{1K}\\ 1&x_{22}&\ldots&x_{2K}\\ \vdots&\vdots&&\vdots\\ 1&x_{12}&\ldots&x_{nK}\\ \end{pmatrix}_ {n \times K}
X≡
11⋮1x12x22⋮x12………x1Kx2K⋮xnK
n×K
5.3 OLS估计量的推导
m
i
n
β
^
1
,
…
,
β
^
K
∑
i
=
1
n
e
i
2
=
∑
i
=
1
n
(
y
i
−
β
^
1
−
β
^
2
x
i
2
−
β
^
3
x
i
3
−
…
−
β
^
K
x
i
K
)
2
\mathop{min}\limits_{\hat\beta_1,\ldots,\hat\beta_K}\sum\limits_{i=1}^ne_i^2=\sum\limits_{i=1}^n(y_i-\hat\beta_1-\hat\beta_2x_{i2}-\hat\beta_3x_{i3}-\ldots-\hat\beta_Kx_{iK})^2
β^1,…,β^Kmini=1∑nei2=i=1∑n(yi−β^1−β^2xi2−β^3xi3−…−β^KxiK)2
一阶条件和原来相似,这里不再详细写
正规方程组的矩阵表达形式:
{
∑
i
=
1
n
e
i
=
0
∑
i
=
1
n
x
i
2
e
i
=
0
⋮
∑
i
=
1
n
x
i
K
e
i
=
0
\left \{ \begin{aligned} \sum\limits_{i=1}^ne_i& = 0 \\ \sum\limits_{i=1}^nx_{i2}e_i &= 0\\ &\vdots\\ \sum\limits_{i=1}^nx_{iK}e_i & = 0 \end{aligned} \right.
⎩
⎨
⎧i=1∑neii=1∑nxi2eii=1∑nxiKei=0=0⋮=0
残差向量
e
≡
(
e
1
e
2
…
e
n
)
\boldsymbol{e}\equiv(e_1\quad e_2\quad\ldots\quad e_n)
e≡(e1e2…en)和每个解释变量都正交。
正规方程组可简介地写为
X
⊤
e
=
0
\boldsymbol{X^\top e=0}
X⊤e=0
残差向量写为:
e
=
y
−
X
β
^
\boldsymbol{e=y-X\hat\beta}
e=y−Xβ^
X
⊤
(
y
−
X
β
^
)
=
0
\boldsymbol{X^\top(y-X\hat\beta)=0}
X⊤(y−Xβ^)=0
(
X
⊤
X
)
K
×
K
β
^
K
×
1
=
X
K
×
n
⊤
y
n
×
1
\boldsymbol{(X^\top X)_{K\times K}\hat\beta_{K\times 1}=X^\top_{K\times n}y_{n\times 1}}
(X⊤X)K×Kβ^K×1=XK×n⊤yn×1
假设
(
X
⊤
X
)
−
1
\boldsymbol{(X^\top X)}^{-1}
(X⊤X)−1存在,可求解OLS估计量
β
^
≡
(
X
⊤
X
)
−
1
X
⊤
y
\boldsymbol{\hat\beta \equiv{(X^\top X)}^{-1}X^\top y}
β^≡(X⊤X)−1X⊤y
5.4 OLS的几何解释
拟合值向量和残差向量正交:
y
^
′
e
=
0
\boldsymbol{\hat{y}'e}=0
y^′e=0
被解释变量
y
\boldsymbol{y}
y可分解为相互正交的拟合
y
^
\boldsymbol{\hat y}
y^与残差
e
\boldsymbol{e}
e之和
5.5 拟合优度
平方和分解公式依然成立
引入校正拟合优度,对解释变量过多(模型不够简洁)进行惩罚。缺点是,它可能为负值。
5.6 古典线性回归模型的假定
为了得到OLS估计量的良好性质,“古典线性回归模型”(Classical Linear Regression Model)作了如下假定:
假定 5.1 线性假定(linearity) y i = β 1 + β 2 x i 2 + … + β K x i K + ε i y_i=\beta_1+\beta_2x_{i2}+\ldots+\beta_Kx_{iK}+\varepsilon_i yi=β1+β2xi2+…+βKxiK+εi
线性假定的含义是每个解释变量对 y i y_i yi的边际效应为常数,比如 ∂ y i ∂ x i 2 = β 2 \frac{ \partial y_i }{ \partial x_{i2} }=\beta_2 ∂xi2∂yi=β2(忽略扰动项 ε i \varepsilon_i εi)
如果边际效应可变,可加入平方项(比如 x i 2 2 x_{i2}^2 xi22)或交叉项(比如 x i 2 x i 3 x_{i2} x_{i3} xi2xi3。交叉项也称为互动项。
只要将回归方程中变量的最高次(比如 x 2 x^2 x2)或函数(比如 l n x ln x lnx)都作为变量来看待,则仍然符合线性模型的假定。
线性假定的本质要求是,回归函数是参数( β 1 , … , β K \beta_1,\ldots,\beta_K β1,…,βK)的线性函数。
假定 5.2 严格外生性(strict exogeneity) 要求 E ( ε i ∣ X ) = E ( ε i ∣ x 1 , … , x n ) = 0 ( i = 1 , … , n ) E(\varepsilon_i|\boldsymbol{X})=E(\varepsilon_i|\boldsymbol{x_1,\ldots,x_n})=0\quad (i=1,\ldots,n) E(εi∣X)=E(εi∣x1,…,xn)=0(i=1,…,n)
严格外生性意味着,在给定数据矩阵 X \boldsymbol{X} X的情况下,扰动项 ε i \varepsilon_i εi的条件期望为0。因此 ε i \varepsilon_i εi均值独立于所有解释变量的观测数据,而不仅仅是同一观测数据 x i \boldsymbol{x_i} xi中的解释变量。这意味着 ε i \varepsilon_i εi与所有的解释变量都不相关,即 C o v ( ε i , x j k ) = 0 , ∀ j , k Cov(\varepsilon_i,x_{jk})=0,\forall j,k Cov(εi,xjk)=0,∀j,k。 此假定很强,在第6章大样本OLS可放松。
假定 5.3 不存在“严格多重共线性”(strict multicollinearity) 即数据矩阵 X \boldsymbol{X} X满列秩
这意味着,数据矩阵的各列向量为线性无关,即不存在某个解释变量为另一个解释变量的倍数,或可由其他解释变量线性表出的情形。换言之, X \boldsymbol{X} X中不存在多余的变量。
在现实数据中,并不容易出现严格多重共线性。即使出现,Stata也会自动识别,并去掉多余的变量。
5.7 OLS的小样本性质
在古典线性回归模型的假定5.1—5.3之下,OLS估计量具有以下良好性质
(1)线性性。 OLS估计量 β ^ \boldsymbol{\hat\beta} β^为线性估计量。
(2)无偏性。 E ( β ^ ∣ X ) = β E(\boldsymbol{\hat\beta|X})=\boldsymbol{\beta} E(β^∣X)=β,即 β ^ \boldsymbol{\hat\beta} β^不会系统地高估或低估 β \boldsymbol{\beta} β
(3)估计量
β
^
\boldsymbol{\hat\beta}
β^的协方差矩阵
V
a
r
(
β
^
∣
X
)
=
(
X
′
X
)
−
1
V
a
r
(
ε
∣
X
)
X
(
X
′
X
)
−
1
Var(\boldsymbol{\hat\beta|X})=\boldsymbol{(X'X)^{-1}}Var(\boldsymbol{\varepsilon|X})\boldsymbol{X(X'X)^{-1}}
Var(β^∣X)=(X′X)−1Var(ε∣X)X(X′X)−1
假设 5.4 球形扰动项(spherical disturbance) 扰动项满足“同方差”、“无自相关”的相知,故扰动项 ε \varepsilon ε的协方差矩阵可写为
V a r ( ε ∣ X ) = σ 2 I n = ( σ 2 0 … 0 0 σ 2 … 0 ⋮ ⋮ ⋮ 0 0 … σ 2 ) Var(\boldsymbol{\varepsilon|X})=\sigma^2\boldsymbol{I}_n= \begin{equation*} \begin{pmatrix} \sigma^2 & 0&\ldots & 0\\ 0 & \sigma^2&\ldots & 0\\ \vdots&\vdots& &\vdots\\ 0 & 0 &\ldots& \sigma^2 \end{pmatrix} \end{equation*} Var(ε∣X)=σ2In= σ20⋮00σ2⋮0………00⋮σ2
主对角线元素都等于 σ 2 \sigma^2 σ2,即满足“条件同方差”,简称“同方差”
非主对角线元素都为0,故不同个体的扰动项之间无“自相关”或“序列相关”
在球形扰动项的假定下,
V
a
r
(
β
^
∣
X
)
=
σ
2
(
X
′
X
)
−
1
Var(\boldsymbol{\hat\beta|X})=\sigma^2\boldsymbol{(X'X)^{-1}}
Var(β^∣X)=σ2(X′X)−1
(4)高斯-马尔可夫定理
在假定5.1—5.4之下,最小二乘法是最佳线性无偏估计(Best Linear Unbiased Estimator,BLUE),即存在所有线性的无偏估计量中,最小二乘法的方差最小。
(5)对扰动项方差的无偏估计
对某统计量的标准差的估计值称为该统计量的标准误
5.8 对单个系数的t检验
假定5.5 在给定 X \boldsymbol{X} X的情况下, ε ∣ X \boldsymbol{\varepsilon|X} ε∣X的条件分布为正态,即 ε ∣ X ∼ N ( 0 , σ 2 I n ) \boldsymbol{\varepsilon|X}\sim N(0,\boldsymbol{\sigma^2I}_n) ε∣X∼N(0,σ2In)。
定理(t统计量的分布)
在假定5.1—5.5均满足,且原假设“
H
0
:
β
k
=
c
H_0:\beta_k=c
H0:βk=c”也成立的情况下,
t
t
t统计量服从自由度为
(
n
−
K
)
(n-K)
(n−K)的
t
t
t分布:
t
k
≡
β
^
k
−
c
S
E
(
β
^
k
)
∼
t
(
n
−
K
)
t_k \equiv \frac{\hat\beta_k-c}{SE (\hat\beta_k)}\sim t(n-K)
tk≡SE(β^k)β^k−c∼t(n−K)
其中
S
E
(
β
^
k
)
≡
s
2
(
X
′
X
)
k
k
−
1
SE (\hat\beta_k)\equiv \sqrt{s^2(\boldsymbol{X'X})_{kk}^{-1}}
SE(β^k)≡s2(X′X)kk−1为
β
^
k
\hat\beta_k
β^k的标准误。
更一般地,
t
t
t统计量的通用公式为
t
≡
估计量
−
假想值
估计量的标准误
t \equiv \frac{估计量-假想值}{估计量的标准误}
t≡估计量的标准误估计量−假想值
从上式可知,
t
t
t统计量度量估计量
(
β
^
k
)
(\hat\beta_k)
(β^k)离假想值
(
c
)
(c)
(c)的距离,并以估计量的标准误
S
E
(
β
^
k
)
SE(\hat\beta_k)
SE(β^k)作为距离的度量单位,即此距离为标准误的多少倍。
1.
t
t
t检验的步骤
第一步:计算 t t t统计量,记其具体取值为 t k t_k tk。如果 H 0 H_0 H0为真,则 ∣ t k ∣ |t_k| ∣tk∣很大的概率很小。【一般 ∣ t k ∣ |t_k| ∣tk∣小,拒绝原假设】
第二步:计算“显著性水平”为
α
\alpha
α的“临界值”
t
α
/
2
(
n
−
K
)
t_{\alpha /2}(n-K)
tα/2(n−K),其中
t
α
/
2
(
n
−
K
)
t_{\alpha /2}(n-K)
tα/2(n−K)的定义为
P
{
T
>
t
α
/
2
(
n
−
K
)
}
=
P
{
T
<
−
t
α
/
2
(
n
−
K
)
}
=
α
/
2
P\{T>t_{\alpha /2}(n-K)\}=P\{T<-t_{\alpha /2}(n-K)\}=\alpha/2
P{T>tα/2(n−K)}=P{T<−tα/2(n−K)}=α/2
在实践中,通常取
α
=
5
%
\alpha=5\%
α=5%,则
α
/
2
=
2.5
%
\alpha/2=2.5\%
α/2=2.5%。有时也使用
α
=
1
%
\alpha=1\%
α=1%或
α
=
10
%
\alpha=10\%
α=10%
第三步:如果
∣
t
k
∣
≥
t
α
/
2
(
n
−
K
)
|t_k|\geq t_{\alpha /2}(n-K)
∣tk∣≥tα/2(n−K),则
t
k
t_k
tk落入“拒绝域”,故拒绝
H
0
H_0
H0;反之,落入“接受域”,故接受
H
0
H_0
H0
2.计算
p
p
p值
在双边
t
t
t检验中,给定
t
t
t统计量的样本观测值
t
k
t_k
tk,此假设检验问题的
p
p
p值(probability value,即p-value)为
p
值
≡
P
(
∣
T
∣
>
∣
t
k
∣
)
p值\equiv P(|T|>|t_k|)
p值≡P(∣T∣>∣tk∣)
定义:称原假设可被拒绝的最小显著性水平为此假设检验问题的 p p p值(probability value,即p-value)
显然, p p p值越小,越倾向于拒绝原假设。
计算临界值还需要查表,计算p值更简单,并且p值进行假设检验一般比临界值更有信息量。
3.计算置信区间
4.单边检验
- 单边右侧检验
原假设 H 0 : β k = 0 H_0:\beta_k=0\quad H0:βk=0备择假设 H 1 : β > 0 H_1:\beta>0 H1:β>0
t t t统计量: t k ≡ β ^ k S E ( β ^ k ) ∼ t ( n − K ) t_k\equiv\frac{\hat\beta_k}{SE(\hat\beta_k)}\sim t(n-K) tk≡SE(β^k)β^k∼t(n−K)
如果 t t t统计量很大,则倾向于拒绝原假设;而如果此 t t t统计量很小(比如负数),则倾向于接受原假设。
p 值 ≡ P ( T > t k ) p值\equiv P(T>t_k) p值≡P(T>tk)
- 单边左侧检验
原假设 H 0 : β k = 0 H_0:\beta_k=0\quad H0:βk=0备择假设 H 1 : β < 0 H_1:\beta<0 H1:β<0
t t t统计量越小(比如负数),则越倾向于拒绝原假设。
p 值 ≡ P ( T < t k ) p值\equiv P(T<t_k) p值≡P(T<tk)
5.第Ⅰ类错误与第Ⅱ类错误
定义
第Ⅰ类错误指的是,虽然原假设为真,但却根据观测数据做出了拒绝原假设的错误判断,即“弃真”。
定义\quad第Ⅰ类错误指的是,虽然原假设为真,但却根据观测数据做出了拒绝原假设的错误判断,即“弃真”。
定义第Ⅰ类错误指的是,虽然原假设为真,但却根据观测数据做出了拒绝原假设的错误判断,即“弃真”。
第Ⅰ类错误发生的概率为
第Ⅰ类错误发生的概率为
第Ⅰ类错误发生的概率为
P
(
拒绝
H
0
∣
H
0
)
=
P
(
检验统计量落入拒绝域
∣
H
0
)
=
α
P(拒绝H_0|H_0)=P(检验统计量落入拒绝域|H_0)=\alpha
P(拒绝H0∣H0)=P(检验统计量落入拒绝域∣H0)=α
定义
第Ⅱ类错误指的是,虽然原假设为假(替代假设为真),但却根据观测数据做出了接受假设的错误
定义\quad第Ⅱ类错误指的是,虽然原假设为假(替代假设为真),但却根据观测数据做出了接受假设的错误
定义第Ⅱ类错误指的是,虽然原假设为假(替代假设为真),但却根据观测数据做出了接受假设的错误
判断,即“存伪”。
判断,即“存伪”。
判断,即“存伪”。
第Ⅱ类错误的发生概率为
第Ⅱ类错误的发生概率为
第Ⅱ类错误的发生概率为
P
(
接受
H
1
∣
H
1
)
=
P
(
检验统计量落入接受域
∣
H
1
)
P(接受H_1|H_1)=P(检验统计量落入接受域|H_1)
P(接受H1∣H1)=P(检验统计量落入接受域∣H1)
定义
称“
1
减去第Ⅱ错误的发生概率”为统计检验的“功效”或“势”,即
定义\quad称“1减去第Ⅱ错误的发生概率”为统计检验的“功效”或“势”,即
定义称“1减去第Ⅱ错误的发生概率”为统计检验的“功效”或“势”,即
功效
=
1
−
P
(
接受
H
0
∣
H
1
)
=
P
(
拒绝
H
0
∣
H
1
)
功效=1-P(接受H_0|H_1)=P(拒绝H_0|H_1)
功效=1−P(接受H0∣H1)=P(拒绝H0∣H1)
5.9 对线性假设的F检验
【检验整个回归方程是否显著】
定理(F统计量的分布)
\quad
在假定5.1—5.5均满足,且原假设
H
0
:
R
β
=
r
H_0:\boldsymbol{R\beta=r}
H0:Rβ=r也成立的情况下,则
F
F
F统计量服从自由度为
(
m
,
n
−
K
)
(m,n-K)
(m,n−K)的
F
F
F分布:
F
≡
(
R
β
^
−
r
)
′
[
R
(
X
′
X
)
−
1
R
′
]
−
1
(
R
β
^
−
r
)
/
m
s
2
∼
F
(
m
,
n
−
K
)
F\equiv\frac{\boldsymbol{(R\hat\beta-r)'[R(X'X)^{-1}R']^{-1}(R\hat\beta-r)}/m}{s^2}\sim F(m,n-K)
F≡s2(Rβ^−r)′[R(X′X)−1R′]−1(Rβ^−r)/m∼F(m,n−K)
5.10 F统计量的似然比原理表达式
在作假设检验时,如果接受原假设,则可将此原假设作为约束条件,代入最小二乘法的最优化问题。使用约束条件下的最小二乘法,即“约束最小二乘法”。
m
i
n
β
^
S
S
R
(
β
^
)
s
.
t
.
R
β
^
=
r
\mathop{min}\limits_{\hat\beta}SSR(\hat\beta) \\ s.t.\quad\boldsymbol{R\hat\beta=r}
β^minSSR(β^)s.t.Rβ^=r
记无约束回归的残差平方和为SSR,而有约束回归的残差平方和为SSR*。由此构造如下
F
F
F统计量
F
=
(
S
S
R
∗
−
S
S
R
)
/
m
S
S
R
/
(
n
−
K
)
F=\frac{(SSR^*-SSR)/m}{SSR/(n-K)}
F=SSR/(n−K)(SSR∗−SSR)/m
这种通过比较“条件极值”与“无条件极值”而进行的检验,统称为“似然比检验”。
另一种表达。
F
F
F统计量的似然比表达式也可以通过拟合优度来表示。记
R
2
R^2
R2为无约束回归的拟合优度,而
R
∗
2
R^2_*
R∗2为约束回归的拟合优度,则
F
=
(
R
2
−
R
∗
2
)
/
m
(
1
−
R
2
)
/
(
n
−
K
)
F=\frac{(R^2-R^2_*)/m}{(1-R^2)/(n-K)}
F=(1−R2)/(n−K)(R2−R∗2)/m
5.11 预测
暂时略
5.12 多元回归的Stata示例
在Stata中进行多元回归的命令为regress y x1 x2 x3
数据集 grilic.dta
对以下方程进行多元回归估计
l
n
w
=
β
1
+
β
2
s
+
β
3
e
x
p
r
+
β
4
t
e
n
u
r
e
+
β
5
s
m
s
a
+
β
6
r
n
s
+
ε
lnw=\beta_1+\beta_2s+\beta_3expr+\beta_4tenure+\beta_5smsa+\beta_6 rns+\varepsilon
lnw=β1+β2s+β3expr+β4tenure+β5smsa+β6rns+ε
reg lnw s expr tenure smsa rns
vce
显示回归系数的协方差矩阵
主对角线元素为各回归系数的方差,而非主对角线则为相应的协方差
只对南方居民的子样本进行回归
reg lnw s expr tenure smsa if rns
只对北方居民的子样本进行回归,可使用命令
reg lnw s expr tenure smsa if ~rns
只对中学生以上(s>=12)的子样本进行回归
reg lnw s expr tenure smsa if s>=12
只对中学以上(s>=12)且在南方居住的子样本进行回归
reg lnw s expr tenure smsa if s>=12&rns
quietly
表示不会报回归结果
test
进行t检验,简写te
test s=0.1
//原假设为:变量s的系数等于0.1
检验
e
x
p
r
与
t
e
n
u
r
e
的系数是否相等,即检验
H
0
:
β
3
=
β
4
检验expr与tenure的系数是否相等,即检验H_0:\beta_3=\beta_4
检验expr与tenure的系数是否相等,即检验H0:β3=β4
test expr =tenure
检验工龄回报率与现单位年限回报率之和是否等于教育回报率,即
H
0
:
β
3
+
β
4
=
β
2
检验工龄回报率与现单位年限回报率之和是否等于教育回报率,即H_0:\beta_3+\beta_4=\beta_2
检验工龄回报率与现单位年限回报率之和是否等于教育回报率,即H0:β3+β4=β2
test expr + tenure=s