模型组合方法-boosting算法详解(机器学习面试必备)

常见的模型组合方法有:简单平均(Averaging),投票(voting),Bagging(randomforest),boosting(GBDT),stacking,blending等,在实际业务中,单一模型很难满足需求,组合模型才能达到业务的精度要求。本文主要详细讲述三种具有代表性的boosting算法:Adaboost,GBDT,XGBoost.
1.Adaboost原理:利用前一轮迭代弱分类器的误差率来更新训练集的权重
训练过程:
1)首先赋予每个样本相同的权重,假如样本数为N,则每一个样本权重是1/N,用一组向量表示如下:
这里写图片描述
U(1)表示第一轮训练
2)假如经过T轮训练(每一轮训练产生一个弱分类器),对于第i轮训练来说,每一轮训练的目标函数是如下:
这里写图片描述
N表示样本总数,T表示第T轮训练,
其推导过程如下:
这里写图片描述
这里写图片描述表示经过T轮训练后产生的T个弱分类器的加权结果,
这里写图片描述表示每一轮训练的弱分类器的权重,这里写图片描述表示第t轮的分类错误率。
3)最优步长的求法:假设找到一个函数这里写图片描述,在这个函数上走这里写图片描述的长度,
这里写图片描述

这里写图片描述

这里写图片描述

2GBDT原理:
这里写图片描述
两者目标函数的差别:
这里写图片描述

这里写图片描述

这里写图片描述

这里写图片描述

这里写图片描述

3.XGBoost:
这里写图片描述

这里写图片描述

这里写图片描述

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值