机器学习-有监督学习-集成学习方法(三):Bootstrap->Boosting(提升)方法-->前向分步算法-->Adaboost算法--+决策树-->Adaboost提升树

Adaboost是一种提升方法,通过迭代优化和加权弱分类器形成强分类器。它使用指数损失函数,通过前向分步算法调整样本权重和分类器权重,尤其适用于决策树作为基分类器。Adaboost算法不仅适用于二分类问题,也可扩展到多分类和回归问题,其训练误差以指数速率下降,对异常样本敏感,但能有效降低模型偏差。
摘要由CSDN通过智能技术生成

在这里插入图片描述

一、Bootstrap

Boostrap是靴子的带子的意思,名字来源于“pull up your ownboostraps”,意思是通过拉靴子提高自己,本来的意思是不可能发生的事情,但后来发展成通过自己的努力让事情变得更好。放在组合分类器这里,意思就是通过分类器自己提高分类的性能。
Boostrap只是提供了一种组合方法的思想,就是将基分类器的训练结果进行综合分析,而其它的名称如Bagging、Boosting是对组合方法的具体演绎。

Boostrap组合方法分为:Bagging算法与Boosting算法。

  • Bagging的作用:降低“方差”;
  • Boost的作用:降低“偏差”;

二、Boosting(提升)

  • Boosting由弱分类器得到强分类器的过程:迭代优化:样本加权系数、分类器加权系数;
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值