量化策略:梯度提升算法年化收益率达到25%

本文介绍了梯度提升决策树(GBDT)的基本原理和训练过程,并展示了其在量化投资策略中的应用。通过使用GBDT算法,沪深300和中证500指数的回测结果显示,GBDT实现了显著的超额收益和较高的夏普比率,但在波动性和最大回撤方面存在差异。
摘要由CSDN通过智能技术生成

在机器学习中,提升方法(Boosting)是一种通过组合一群复杂度低,训练的成本低,不容易过度拟合的弱分类器(weak learner),建立N个模型(分类),并且尝试在每次分类中都将上一次分错的数据权重提高一点再进行分类,来获得一个强分类器(strong learner)的方法。
梯度决策提升树(Gradient Boosted Decision Tree,GBDT)是由Friedman等[1]在2001年提出的一种经典的机器学习方法,属于boosting系列算法中的一个代表算法,它是一种迭代的决策树算法,所有树的结论累加起来作为最终答案。GBDT设计的目的为了求解损失函数的优化,具体思路为对损失函数求梯度,以负梯度的方向代入模型的当前值,以当前值作为残差值的近似。它采用了加法模型,通过向着减小残差的方向收敛得到将输入数据分类或回归的模型。下图说明了GBDT的训练过程:
在这里插入图片描述

GBDT经多次迭代后收敛,每轮训练多个分类器,每个分类器基于上一次迭代得到的残差础上进行训练。作为集成学习方法的一种,GBDT的基分类器属于弱分类器,需要结构简单且满足低方差、高偏差的条件,这与GBDT的损失函数是基于降低偏差有关;通常来说,GBDT通常以CART TREE作为基分类器,且每棵CART TREE的深度相对较低以保证基分类器的复杂度不会过高。最终将每轮训练得到的基分类器加权求和,得到总的分类器。

按照《量化投资策略:多因子到人工智能》中的步骤&#

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

量化策略与人工智能

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值