机器学习进阶之(四)XGBoost-LightGBM

1. 回顾XGboost

XGBoost在竞赛与工业界都使用频繁。XGBoost是决策树的一种,那么要使用决策树过程,下面有两个弱分类器,一个以年龄性别,另一个以是否使用电脑,这是一种集成的思想,我们利用叶子节点与权值来表示预测值。
在这里插入图片描述

1.1 Boosting思想

Boosting是一个加法模型,从常数开始迭代,每一轮迭代增加一个函数,每次新添加的函数是基于以往所有的学习结果的和真实值之间的残差上学习模型。
y ⃗ i ( 0 ) = 0 \vec y_i^{(0)} = 0 y i(0)=0 y ⃗ i ( 1 ) = f 1 ( x i ) = y ⃗ i ( 0 ) + f 1 ( x i ) \vec y_i^{(1)}=f_1(x_i)=\vec y_i^{(0)} + f_1(x_i) y i(1)=f1(xi)=y i(0)+f1(xi) y ⃗ i ( 2 ) = f 1 ( x i ) + f 2 ( x i ) = y ⃗ i ( 1 ) + f 2 ( x i ) \vec y_i^{(2)}=f_1(x_i)+f_2(x_i)=\vec y_i^{(1)}+f_2(x_i) y i(2)=f1(xi)+f2(xi)=y i(1)+f2(xi) . . . ... ... y ⃗ i ( t ) = ∑ k = 1 t f k ( x i ) = y ⃗ i ( t − 1 ) + f t ( x i ) \vec y_i^{(t)}=\sum_{k=1}^t f_k(x_i)=\vec y_i^{(t-1)}+f_t(x_i) y i(t)=k=1tfk(xi)=y i(t1)+ft(xi)

1.2 XGBoost损失函数

XGBoost需要对每棵树都进行综合考虑,优化目标是一个损失函数。
我们的目标函数是: l ( y i , y ‾ i ) = ( y i − y ‾ i ) 2 l(y_i, \overline y_i)=(y_i - \overline y_i)^2 l(yi,yi)=(yiyi)2,那么我们如何求 最优函数呢? F ∗ ( x ⃗ ) = a r g m i n E ( x , y ) [ L ( y , F ( x ⃗ ) ) ] F^*(\vec x)=argminE_{(x,y)}[L(y,F(\vec x))] F(x )=argminE(x,y)[L(y,F(x ))]集成算法表示: y ⃗ i = ∑ k = 1 K f k ( x i ) , f ∈ F \vec y_i =\sum_{k=1} ^ K f_k(x_i), f \in F y i=

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值