集成学习

Boost

加法模型

前向分步算法

梯度提升

1.如果每一步的弱预测模型生成都是依据损失函数的梯度方向,则称为梯度提升
2,损失函数的确定(目标即为损失函数在训练集上的期望最小)
3,

GDBT(梯度下降提升树)

基函数:决策树(CART回归树)
损失函数:
优缺点:

AdaBoost

1.标准AdaBoost用来分类
2.损失函数:指数损失函数
3.α和w的权重更新公式(归一化因子)
4.优缺点

XGBoost

1.利用了目标函数的二阶信息
2.正则项、
3.优缺点:

常见问题

XGBboost与GDBT的比较
GDBTXGBoost
基学习器CART树还支持线性分类器,这个时候XGB相当于L1正则化和L2正则化的LR和线性回归
信息利用一阶导数对代价函数进行了二阶泰勒展开,得到一阶和二阶导数
正则在代价函数中加入了正则项,用于控制模型的复杂度;从权衡方差偏差来看,降低了模型的方差,使学习出来的模型更加简单,防止过拟合
学习率在进行完一次迭代之后,会将叶子节点的权值乘上该系数,主要是为了削弱每棵树的影响,让后面有更大的学习空间
列抽样借鉴了RF的做法,支持列抽样,不仅防止过拟合,还能减少计算
对缺失值的处理对于特征的值有缺失的样本,XGB还可以自动学习出它的分裂方向???
并行不支持支持。不是tree粒度的,也是迭代完一次之后再下一次;是在特征粒度上的,预先对数据做了排序,保存为block结构,后面的迭代中重复的使用这个结构大大减少计算量;block也使并行成为了可能,在进行节点的分裂时,各个特征的增益计算就可以并行

Bagging

RF

1.随机选择特征
2.在构建决策树的时候,RF的每颗决策树都最大可能的进行生长而不进行剪枝?
3.包外估计?
4,优缺点:
优点:能处理很高维的数据,并且不用特征选择,而且在训练完后,给出特征的重要性;可以并行
缺点:在噪声较大的分类或回归问题上会过拟合

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值