大数据因果推断-正交随机森林和因果森林

本文介绍了正交随机森林(ORF)和因果森林在因果推断中的应用,强调了它们在处理高维混杂因素和异质性治疗效果中的优势。通过仿真和实际数据案例,展示了这两种方法在估计和推断中的效果,并讨论了在机器学习与因果推断结合中的统计推断方法。
摘要由CSDN通过智能技术生成

大数据因果推断-正交随机森林和因果森林

使用正交随机森林与因果森林进行因果推断的用例文章。


参考:
[1]Oprescu M , Syrgkanis V , Wu Z S . Orthogonal Random Forest for Causal Inference[J]. Papers, 2019.

[2]Oprescu M , Syrgkanis V , Wu Z S . Orthogonal Random Forest for Heterogeneous Treatment Effect Estimation[J]. Vasilis Syrgkanis, 2018.

[3]Wager S, Athey S. ,2018,“Estimation and Inference of Heterogeneous Treatment Effects using Random Forests”, Journal of the American Statistical Association, 113:523,1228-1242.


引言

因果森林和广义随机森林是一种估计随机森林处理效果异质性的灵活方法。 正交随机森林(ORF)与广义随机森林结合使用正交化技术,该技术可有效消除两阶段估计中的混淆效应。 由于该方法的正交化方面,ORF在存在高维混杂因素的情况下表现尤其出色。

因果推断(causal )是计量经济学最核心的问题之一。传统上,大多数因果推断的应用数据量比较小,对于异质性的讨论不够充分,而现在越来越多的应用开始潜在的对个体的处理效应进行估计。

使用异质性处理效用的一个担心是,一些研究者可能会去寻找那些处理效应比较强的个体,并只报告这些个体的结果。为了解决这些问题,Athey和Imbens在去年JASA的文章中给出了一个基于决策树和随机森林的解决方案,或称因果森林。

该方法本质上是一个非参数的方法。与传统非参数方法,比如临近匹配、基于kernel的方法等相比,该方法具有一个优势即该方法没有『维数诅咒』的问题,而传统方法当变量的维数增加时效果会大打折扣。

当然,没有推断就没有因果推断。决策树、随机森林是机器学习中常用的算法,然而机器学习通常而言重视预测结果而非推断。本文的另一贡献在于,在将随机森林算法与因果推断相结合的同时,给出了估计量的渐进分布和构造置信区间的方法。

决策树是机器学习中常用的算法,该算法使用了一种层级的结构:树,来帮助预测。

其中中间的层次成为节点,而最终的节点我们一般成为「叶」。

以分类问题为例,决策树通常使用递归的方法一层一层的将数据分解为不同的子样本,比如在上图的树中,每个节点都代表一个子样本,为了继续让树增长,需要一个指标度量下一步如何分组才能使得两个分类更能被区分开。比如,C4.5算法使用熵增作为标准,而CART算法使用基尼系数作为标准。CART算法不仅仅可以做分类,还可以做回归,其最终的结果是一个二叉树。由于这些特性,本文使用了CART算法。

在决策树的基础之上,还可以进一步做随机森林(Random forest),即首先使用Bootstrap的想法有放回的在数据中抽样,同时抽取特征(自变量X)的一个子集,进行决策树的预测。以上步骤可以不断重复,形成很多很多决策树,最终的决策结果由所有这些决策树的投票产生。在实践中,随机森林的分类效果通常非常理想。

可参考上述文献。


1 仿真 & 结果

1.1 数据生成

这里,我们使用数据生成过程(DGP)。 DGP由以下方程式描述:
在这里插入图片描述
𝑊是高维混杂因子的矩阵,而𝛽,𝛾具有高度稀疏性。在本GDP过程中:
θ x = exp ⁡ ( 2 × x 1 ) \theta_{x} = \exp(2\times{x_{1}}) θx=exp(2×x1)

# DGP常数
np.random.seed(123)
n = 1000
n_w = 30
support_size = 5
n_x = 1

# Outcome support
support_Y = np.random.choice(range(n_w), size=support_size
连续性因果效应估计是指在因果推断中,对于连续的处理变量和连续的结果变量进行因果关系的估计。在Python中,有不少工具和库可以用来进行连续性因果效应估计。 其中一个常用的工具是因果森林(Causal Forest),它由多棵因果树构成。与决策树不同,因果森林的分裂准则进行了修改,以实现“Honest estimation”(使用互不重合的数据进行拆分和估计)。因果森林可以用于估计因果效应,特别适用于连续的处理变量和连续的结果变量。 另一个工具是正交随机森林(Orthogonal Random Forest),它是在广义随机森林的基础上进行改进的。正交随机森林在线性效应和二元处理的假设下具有等价性,同时也可以推广到多元和连续处理。 需要注意的是,连续性因果效应估计涉及复杂的统计方法和算法,使用这些工具进行估计需要深入了解相关理论和技术。在Python中,可以使用因果森林正交随机森林等工具来进行连续性因果效应估计的实现。<span class="em">1</span><span class="em">2</span><span class="em">3</span> #### 引用[.reference_title] - *1* *2* *3* [因果森林总结:基于树模型的异质因果效应估计](https://blog.csdn.net/tMb8Z9Vdm66wH68VX1/article/details/126684500)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v93^chatsearchT3_1"}}] [.reference_item style="max-width: 100%"] [ .reference_list ]
评论 4
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值