1. 背景,问题描述
很多经济问题都可以用一个有限多阶段的随机模型表示。设为潜在随机驱动因素。其中,,独立,不一定服从相同的分布。
:在路径空间上实现,对于一个样本点而言,。
:服从的分布,risk-neutral pricing measure,有一些固定的值。
:的信息流。
基于上面的符号,动态价值(dynamic value process)如下表示:
(1)
其中,为测度函数:,且。(1)式代表的条件期望在闭集(closed form)中不可用,这里not available in closed form具体是什么我还没有弄明白。
为简化描述,考虑多元Black-Scholes模型,其中独立同分布。名义股票价格由下式给出,
(2)
初值, 方差向量,恒定无风险利率常数和时间步长给定。那么对于动态价值而言,有一个非闭合表达形式,max-call option,当执权价(strike price)为K时,时刻的期权价值表达式为,
(3)
本文使用ensemble estimator with regression trees估计。
有限样本:
该方法学习映射 , 其estimators记为,
.
这里的是动态价值的estimator。
2. 方法——基于回归树的集成学习
2.1 分类与回归树(Classification and Regression Tree,CART)
参考:分类与回归树(CART)的思想、结构、训练和实现 - 知乎
CART回归树模型的基本思想:建立回归的模型不要求精确,但是误差要足够小。将自变量的取值空间分为若干碎片,假设每个碎片内自变量的取值基本相同。那么在该思想下,首先分割特征空间,将样本分组;然后为每个组因变量设置值,模型训练;最后预测。
关于如何分组,需要用合理的指标评估分组质量。当输出值为连续变量时,不能用基尼系数、信息增益衡量分组好坏,而需要一些其他指标。构建一个可用的CART回归树的关键,是设计一个标准,用来指导机器按照最有利于准确计算因变量的情况来切分特征空间。
关于如何划分,在论文《Ensemble learning for portfolio valuation and risk management》中的步骤如下,
- (1)已知在第步的时候,有分割,取其中一个子集.
- (2)假设有三个特征,那么在和固定的情况下,根据,产生新的子集,和。新的分割为.
- (3)其中,的确定方式为使得类内方差最小,即
停止分割的规则有以下几种:
- (1)当一个分割包含的样本数小于某个固定值时停止分割;
- (2)当有K个分割时,停止。
另外一种分割方式见上面连接,找到使得平均方差最小的值,作为分割点。在预测时,使用的公式如下,
即先看样本点属于哪个分割,然后预测其值。
CART的优缺点分别如下:
优点:
- 可解释性
- 维度缩减
- 处理异常值
缺点:
对样本敏感,当样本受到很小的扰动时,预测值的波动很大。由此,为增强算法鲁棒性,有以下两种方式,分别是随机森林Random Forest和Gradient Boosting。
2.2 随机森林Random Forest
2.2.1 基本内容
首先,集成学习有如下几种方式:Bagging,Boosting以及Stacking。这里简单介绍一下三种方式,参考集成学习(Ensemble Learning) - 知乎
(1)Bagging
有放回抽样,即重抽样;根据每次抽到的数据,构建模型;最后,按照分类问题对结果投票,或者回归问题对结果取平均。随机森林是典型的Bagging,每次有放回地抽取一定量的样本数和样本,构建M棵决策树。
(2)Boosting(提升)
该方法同样,学习一系列的弱学习模型,以减小监督学习中的偏差。Boosting中有代表性的是AdaBoost(Adaptive boosting)算法:刚开始训练时对每一个训练例赋相等的权重,然后用该算法对训练集训练t轮,每次训练后,对训练失败的训练例赋以较大的权重,也就是让学习算法在每次学习以后更注意学错的样本,从而得到多个预测函数。
下面我们要介绍的Gradient Boosting方法也是Boosting的一种。
(3)Stacking
stacking训练一个可以组合其他模型的模型,首先先训练多个不同的模型,然后把之前训练的各个模型的输出为输入来训练一个模型,以得到一个最终的输出。
2.2.2 本文中的Random Forest
从样本集中,每一次有放回的生成包含个样本的样本集,重复次,生成个样本集。
每个样本集可以生成一棵树,对于样本集而言,得到相应的决策树,对于每一个样本而言,其预测值为向量。
对于而言,集成结果为:
2.3 Gradient Boosting,梯度提升
2.3.1 基本内容
参考,梯度提升(Gradient Boosting)算法 - 知乎
首先,介绍梯度下降法,梯度下降法中更新参数,使得损失函数减小,模拟系统。其更新公式如下,
设,则最终的如下,
梯度提升,借鉴梯度下降法的思想,其基本原理是根据当前模型损失函数的负梯度信息来训练新加入的弱分类器,然后将训练好的弱分类器以累加的形式结合到现有模型中。模型的损失函数为,为了求取函数,设其初值为,更新形式如下,
其中,的表达式如下,
梯度下降和梯度提升的对比如下,
2.3.2 本文的Gradient Boosting
本文中,学习器的更新组合方式如下,
其中,为合适的步长,为CART的损失函数、根据样本集得到的梯度函数,。
通常,损失函数,那么,。