因果推理中的另一种流行方法是基于决策树学习,这是一种预测建模方法。
决策树是一种用于分类和回归的非参数监督学习方法。目标是创建一个模型,该模型通过学习从数据推断出的简单决策规则来预测目标变量的值。
目标变量是离散的树模型称为分类树,其预测误差基于错误分类成本进行度量。在这些树结构中,叶子代表类标签,而分支代表通向那些类标签的要素的并集。
目标变量是连续的决策树称为回归树,其预测误差由观察值和预测值之间的平方差来衡量。
分类和回归树(CART)分析是一个笼统的术语,用于指代以上两个过程。
在CART模型中,对数据空间进行了分区,并为每个分区空间配置了一个简单的预测模型,因此,每个分区都可以图形化地表示为决策树。
为了估计因果效应的异质性,提供了一种基于CART的数据驱动方法,将数据划分为不同亚群,这些亚群的治疗效应大小不同。
即使有相对于样本量的许多协变量,也无需“稀疏”假设,就可以为治疗效果创建有效的置信区间。