Chapter 12 IP Weighting and Marginal Structural Model

HernKaTeX parse error: Can't use function '\'' in math mode at position 1: \̲'̲{a}n M. and Robins J. Causal Inference: What If.

这一章介绍如何结合IP weighting 和 参数模型.

12.1 The causal question

12.2 Estimating IP weights via modeling

我们知道, IP weighting:
I ( A i = a ) Y i f ( A i ∣ L ) , \frac{I(A_i=a)Y_i}{f(A_i|L)}, f(AiL)I(Ai=a)Yi,
相当于创建了一个伪集合, 即假设所有的人都进行了 A = a A=a A=a.
显然, 在这个伪集合中, A , L A,L A,L是相互独立的.
故我们有
E p s [ Y ∣ A = a ] = ∑ l E [ Y ∣ A = a , L = l ] P r [ L = l ] , \mathbb{E}_{ps}[Y|A=a]=\sum_l \mathbb{E} [Y|A=a,L=l] \mathrm{Pr}[L=l], Eps[YA=a]=lE[YA=a,L=l]Pr[L=l],
当同时满足条件可交换性的时候, 我们就能够得到
E p s [ Y ∣ A = a ] = E [ Y a ] . \mathbb{E}_{ps}[Y|A=a] = \mathbb{E}[Y^a]. Eps[YA=a]=E[Ya].
所以我们只需要估计 E ^ p s [ Y ∣ A = a ] \hat{\mathbb{E}}_{ps} [Y|A=a] E^ps[YA=a]即可.
自然地, 我们可以假设其符合
θ 0 + θ 1 A \theta_0 + \theta_1 A θ0+θ1A
的线性模型.
通过最小二乘法可以估计出上面的参数.
但是需要注意的是, 我们数据不是原始的数据, 而是在伪数据之上, 相当于每一个样本为
Y i f ( A i ∣ L ) . \frac{Y_i}{f(A_i|L)}. f(AiL)Yi.
W = 1 / f ( A = 1 ∣ L ) W = 1 / f(A=1|L) W=1/f(A=1L), 以及它的估计 W ^ \hat{W} W^(因为 f ( A ∣ L ) f(A|L) f(AL)我们也是不知道的, 我们同样可以用参数模型进行估计), 故
E ^ p s [ Y ∣ A = 1 ] = 1 n ∑ A i = 1 W ^ i Y i . \hat{\mathbb{E}}_{ps}[Y|A=1] = \frac{1}{n}\sum_{A_i =1} \hat{W}_i Y_i. E^ps[YA=1]=n1Ai=1W^iYi.

12.3 Stabilized IP weights

实际上, 我们不光可以设置 W = 1 / f ( A ∣ L ) W=1 / f(A|L) W=1/f(AL), 实际上可以进一步为
p f ( A ∣ L ) \frac{p}{f(A|L)} f(AL)p
只需要满足 p p p L L L无关即可.
书上说这种方式的选择会使得最后估计的置信区间更窄也就是跟robust.

12.4 Marginal structural models

E [ Y a ] = β 0 + β 1 a . \mathbb{E}[Y^a] = \beta_0 + \beta_1 a. E[Ya]=β0+β1a.
注意到, 当满足条件可交换性的时候, 上面的推得的模型和这一节的是等价的.

12.5 Effect modification and marginal structural models

E [ Y a ∣ V ] = β 0 + β 1 a + β 2 V a + β 3 V . \mathbb{E}[Y^a|V] = \beta_0 + \beta_1 a + \beta_2 Va + \beta_3 V. E[YaV]=β0+β1a+β2Va+β3V.
这个时候, 我们可以通过 S W A ( V ) = f [ A ∣ V ] f [ A ∣ V ] SW^A (V) = \frac{f[A|V]}{f[A|V]} SWA(V)=f[AV]f[AV]来估计.

12.6 Censoring and missing data

只需考虑 Y a , c = 0 Y^{a, c=0} Ya,c=0, 以及对应的 W = W A × W C W = W^A \times W^C W=WA×WC,
W C = 1 / P r [ C = 0 ∣ L , A ] . W^C = 1 / \mathrm{Pr} [C=0 | L, A]. WC=1/Pr[C=0L,A].

Fine Point

Setting a bad example

Checking positivity

Technical Point

Horvitz-Thomson estimators

我们常常会用
E ^ [ I ( A = a ) Y f ( A ∣ L ) ] \hat{\mathbb{E}}[\frac{I(A=a)Y}{f(A|L)}] E^[f(AL)I(A=a)Y]
作为估计式子, 其等价于
E ^ [ I ( A = a ) Y f ( A ∣ L ) ] E ^ [ I ( A = a ) f ( A ∣ L ) ] . \frac{\hat{\mathbb{E}}[\frac{I(A=a)Y}{f(A|L)}]} {\hat{\mathbb{E}}[\frac{I(A=a)}{f(A|L)}]}. E^[f(AL)I(A=a)]E^[f(AL)I(A=a)Y].
而且往往后者更稳定.

注: 在 stabilized IP weights中必须要用后者.

More on stabilized weights

S W A = g ( A ) f [ A ∣ L ] . SW^A = \frac{g(A)}{f[A|L]}. SWA=f[AL]g(A).
E ^ [ I ( A = a ) Y f ( A ∣ L ) g ( A ) ] E ^ [ I ( A = a ) f ( A ∣ L ) g ( A ) ] . \frac{\hat{\mathbb{E}}[\frac{I(A=a)Y}{f(A|L)}g(A)]} {\hat{\mathbb{E}}[\frac{I(A=a)}{f(A|L)}g(A)]}. E^[f(AL)I(A=a)g(A)]E^[f(AL)I(A=a)Yg(A)].

  • 0
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值