机器学习-GBDT算法梳理

本文详细介绍了GBDT(Gradient Boosting Decision Tree)算法,从前向分步算法、负梯度拟合、损失函数到回归、分类问题(二分类、多分类),并讨论了正则化和优缺点。GBDT适用于各种数据类型,具有高预测准确性和对异常值的鲁棒性,但训练不可并行。推荐的实现库是xgboost和sklearn。
摘要由CSDN通过智能技术生成

学习任务:
前向分步算法
负梯度拟合
损失函数
回归
二分类,多分类
正则化
优缺点
sklearn参数
应用场景

前言
提升(Boosting)方法是集成学习方法的一种,在分类问题中,它通过改变训练样本的权重,学习多个分类器,将弱分类器组装成一个强分类器,提高分类的性能。其最具代表性的是AdaBoost算法。

提升方法实际采用加法模型(即基函数的线性组合)与前向分步算法。提升树(Boosting Tree)是以决策树为基函数的提升方法。对分类问题决策树是二叉分类树,对回归问题决策树是二叉回归树。

提升树模型可以表示为决策树的加法模型:
在这里插入图片描述
其中T(x;Θm)表示决策树;Θm表示决策树的参数;M为树的个数。

不同问题的提升树学习算法,其主要区别在于损失函数不同。

  • 平方损失函数常用于回归问题,
  • 指数损失函数用于分类问题,
  • 一般损失函数用一般于决策问题。

GBDT有很多简称,有GBT(Gradient Boosting Tree) GTB(Gradient Tree Boosting ) GBRT(Gradient Boosting Regression Tree) MART(Multiple Additive Regression Tree) 其实都是一种算法。

GBDT也是使用的前向分步算法和加法模型

  • 1
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值