AdaBoosting and Stacking

本文介绍了AdaBoosting和Stacking两种集成学习方法。AdaBoosting通过不断调整数据点权重,重点处理前一轮错误分类的样本,常用于回归问题,但计算复杂度高。XGBoost作为AdaBoosting的优化版,引入并行化、正则化等改进,降低了过拟合风险。Stacking则是通过神经网络等模型,将多个基学习器的预测结果作为输入,进行二次学习,提高模型性能。
摘要由CSDN通过智能技术生成

集成学习-boosting在这里插入图片描述

第一次没被拟合的点,增强学习
基于同一组数据
但是每个子模型认为的每个点的权重不同在这里插入图片描述

在这里插入图片描述
key:gbdt 用于回归效果比较好
value:每一颗树学习的是之前树的残差相当于变相增大分错部分的权重。

缺点:不利于并行化;计算复杂度高,不适合高维稀疏特征

改进:XGboost
并行多线程;剪纸;控制了复杂度(加入正则项-树叶节点数+score的L2范数)

Shrinkage(缩减),相当于学习速率(xgboost中的eta)。xgboost

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值