Boosting算法总结

Adaboosting:

  1. 通过前向分步法,优化损失函数,为指数损失函数,然后梯度上升树。
  2. 可以 任意分类器作为弱分类器。
  3. 优化步长,与迭代次数。

GBDT

  1. 回归问题:
    1) 拟合残差
    2)CART树
    3)拟合负梯度

  2. 分类问题:
    1)改变拟合Loss, 比如: 逻辑回归,对数损失, Adaboost 指数损失。
    2)训练更精准
    3)没法并行处理

  3. 调参
    GBDT
    n_estimators: 弱学习做大迭代次数
    learing_rate: 权重缩减系数,也称作步长。)
    subsample: 子采样,不放回抽样,防止过拟合。不能太小,负责偏差大。
    随机森林是有放回抽样
    loss: 回归选误差函数, 分类选指数损失,或对数损失。
    CART

    1. max_feature: 最大特征树
      2)max_depth: 决策树最大深度,默认是3,数据多特征多一般限制使用
      3)mini_samples_split: 内部节点再划分使用的最小样本数。
      4)mini_samples_leaf: 叶子节点最少样本数。用于剪枝

XGBoost

  1. 优化方面
    1)算法本身优化:
    a. 弱分类模型选择上,可以支持更多弱分类器。
    b. 损失函数上,添加正则化项,预防过拟合
    c. 算法优化上,对误差做二阶泰勒展开,更加准备。 GBDT只做一阶泰勒展开。
    2)算法运行效率
    a. 每个弱分类器,建立过程并行选择,先对所有的特征的值进行排序分组,对分组特征,选择合适的分组大小,cpu缓存进行读取加速。
    3) 算法健壮性
    a.缺失值特征,枚举所有缺失值进入左子树还是右子树决定缺失值处理方法。
  2. 调参
    1)booster: 默认是gbtree CART,gblinear
    2)e_estimators : 弱分类器个数
    3)objective 分类,还是损失,以及对应的损失函数。
  • 1
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值