集成学习:AdaBoost

本文介绍了集成学习中的AdaBoost算法,重点讲述了其目标优化函数、弱分类器权重的求解、训练流程以及误差分析。AdaBoost通过迭代训练弱分类器,并结合权重形成强分类器,其中弱分类器通常是决策树。文章还提到了其他类型的AdaBoost变种及实现细节。
摘要由CSDN通过智能技术生成

0 简介

Boosting的一种 关注于之前错分的样本
对样本赋予权重 弱分类器也有权重
强分类器由若干个弱分类器乘各自的权重组成
弱分类器为决策树

s g n ( F ( x ) ) sgn(F(x)) sgn(F(x))

F ( x ) = ∑ i = 1 M β i f ( x ; γ ) F(x)=\sum\limits_{i=1}^{M}{\beta_if(x;\gamma)} F(x)=i=1Mβif(x;γ)

1 目标优化函数

采用指标损失函数 e − y F ( x ) e^{-yF(x)} eyF(x)
需要求解的参数:

  1. 弱分类器的权重 β \beta β
  2. 弱分类器的参数 γ \gamma γ
    F j − 1 F_{j-1} Fj1代表上一个强分类器 F j F_{j} Fj代表新的强分类器:
    F j = F j − 1 + β f ( x ) F_{j}=F_{j-1}+\beta f(x) Fj=Fj1+βf(x)
    所以目标优化函数为
    m i n ∑ i = 1 l e − y i [ F j − 1 + β f ( x i ) ] min\sum_{i=1}^{l}e^{-y_i[ F_{j-1}+\beta f(x_i)]} mini=1leyi[Fj1+βf(xi)]
    m i n ∑ i = 1 l w i j − 1 ⋅ e − y i β f ( x i ) min\sum_{i=1}^{l}w_i^{j-1}·e^{-y_i\beta f(x_i)} mini=1lwij1eyiβf(xi)
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值