第八章 集成学习

在这里插入图片描述

8.1

在这里插入图片描述

8.2 待补

8.3 待补

8.4

P190介绍了AdaBoost实质上是基于加性模型以类似于牛顿迭代法来优化指数损失函数。。受此启发,通过讲迭代优化过程替换为其他优化方法,产生了GradientBoosting等变体算法。

8.5 待补

8.6

8.6.1 偏差与方差解释:https://www.zhihu.com/question/20448464

Bagging主要是降低分类器的方差,而朴素贝叶斯分类器没有方差可以减小。对全训练样本生成的朴素贝叶斯分类器是最优的分类器,不能用随机抽样来提高泛化性能。

8.7

P181因为在个体决策树的构建过程中,Bagging使用的是“确定型”决策树,即在选择划分属性时要对结点的所有属性进行考察,而随机森林使用的“随机型”决策树只需考察一个属性子集。

8.8 待补

8.9 待补

8.10

采用Bagging训练多个多个分类器,最后采用相对多数投票法得出结果。

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值