集成学习:XGBoost

本文介绍了XGBoost作为集成学习方法,它是GBDT的扩展,重点在于优化目标函数并防止过拟合。通过二阶泰勒展开和正则化项最小化损失函数,使用CART树作为弱学习器。XGBoost利用牛顿法进行优化,并通过权重收缩和列采样来缓解过拟合问题。
摘要由CSDN通过智能技术生成

0 简介

Boosting的一种 是GBDT的扩展
相比于GBDT :

  • 求解损失函数 二阶展开 牛顿法
  • 损失函数加入正则化项

一般用于回归问题 弱学习器用CART树

1 目标优化函数

y i ′ y_i\prime yi 表示预测值
y i , t ′ y_{i,t}\prime yi,t 第t次迭代对样本i的预测值
弱学习器 f ( x ) = w q ( x ) f(x)=w_{q(x)} f(x)=wq(x) 其中q(x)把x映射到第i个叶子节点 wi是第i个节点的值
y i , t ′ = y i , t − 1 ′ + f t ( x i ) y_{i,t}\prime=y_{i,t-1}\prime+f_t(x_i) yi,t=yi,t1+ft(xi)
L = ∑ i = 1 n [ l ( y i , y i , t − 1 ′ + f t ( x i ) ) ] + γ T + 1 2 λ w 2 L=\sum_{i=1}^n[l(y_i,y_{i,t-1}\prime+f_t(x_i))]+\gamma T+\cfrac12\lambda w^2 L=i=1n[l(yi,yi,t1+ft(xi))]+γT+21λw2
最小化L 其中T是叶子节点数 w是所有预测值(叶子结点)的集合 γ和λ是正则化系数
叶子节点数尽量少 预测值尽量小(因为弱分类器预测值是误差 越小越好)
采用牛顿法
L ≈ ∑ i = 1 n [ l ( y i , y i , t − 1 ′ ) + g i f t ( x i ) + 1 2 h i f t 2 ( x i ) ] + γ T + 1 2 λ

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值