《机器学习》周志华(西瓜书)学习笔记 第八章 集成学习

机器学习 学习笔记4

总目录

第八章 集成学习

8.1 个体与集成

集成学习 (ensemble learning) 通过构建并结合多个学习器来完成学习任务,有时也被称为多分类器系统(multi-classifier system) 、基于委员会的学习(committee-based learning) 等.

集成学习的一般结构:先产生一组"个体学习 器" (individual learner),再用某种策略将它们结合起来。
在这里插入图片描述

  • 同质集成:只包含同种类型的个体学习器,例如"决策树集成" 中全是决策树,“神经网络集成"中全是神经网络。

同质集成中的个体学习器亦称基学习器 .

相应的学习算法称为基学习算法。

  • 异质集成:包含不同类型的个体学习器,例如同时包含决策树和神经网络,异质集成中的个体学习器由不同的学习算法生成。个体学习器一般不称为基学习器,常称为"组件学习器” 。

集成学习通过将多个学习器进行结合,常可获得比单一学习器显著优越的泛化性能。这对弱学习器尤为明显。(弱学习器:泛化性能略优于随机猜想的学习器。)

虽然从理论上来说使用弱学习器集成足以获得好的性能,但在实践中出于种种考虑,例如希望使用较少的个体学习器,或是重用关于常见学习器的一些经验等,人们往往会使用比较强的学习器。要获得好的集成, 个体学习器应"好而不同”,即个体学习器要有一定的准确性。并且要有"多样性" ,即学习器间具有差异。

考虑二分类问题 y   ϵ   { − 1. + 1 } y\ \epsilon \ \{-1.+1\} y ϵ { 1.+1},和真实函数 f f f, 假定基分类器的错误率为 ε ε ε,即对每个基分类器 h i h_i hi,有:
P ( h i ( x ) = ̸ f ( x ) ) = ϵ P(h_i(\bm{x}) =\not f(\bm{x}))=\epsilon P(hi(x)≠f(x))=ϵ

假设集成通过简单投票法结合 T 个基分类器,若有超过半数的基分类器正确, 则集成分类就正确:

H ( x ) = s i g n ( ∑ i = 1 T h i ( x ) ) H(\bm{x})=sign(\sum_{i=1}^Th_i(\bm{x})) H(x)=sign(i=1Thi(

  • 1
    点赞
  • 3
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
1. 什么是泛化能力?泛化能力和过拟合之间有什么关系? 泛化能力是指模型在新的、未见过的数据上的表现能力。模型的泛化能力与其对训练数据的拟合程度有关,通常来说,过拟合的模型泛化能力较差。 2. 什么是交叉验证?交叉验证的作用是什么? 交叉验证是一种通过将数据集分成若干个子集来进行模型评估的方法。具体地,将数据集分成k个子集,每个子集都轮流作为测试集,其余子集作为训练集,重复k次,最终得到k个模型的评估结果的平均值。交叉验证的作用是提高模型评估的可靠性和泛化能力。 3. 留出法、k折交叉验证和留一法的区别是什么?它们各自适用于什么情况? 留出法是将数据集分成两部分,一部分作为训练集,另一部分作为测试集。留出法适用于数据集较大的情况。 k折交叉验证是将数据集分成k个子集,每个子集都轮流作为测试集,其余子集作为训练集,重复k次,最终得到k个模型的评估结果的平均值。k折交叉验证适用于数据集较小的情况。 留一法是k折交叉验证的一种特殊情况,即将数据集分成n个子集,每个子集都作为测试集,其余子集作为训练集,重复n次。留一法适用于数据集较小且样本数较少的情况。 4. 为什么要对数据进行预处理?数据预处理的方法有哪些? 数据预处理可以提高模型的表现,并且可以减少过拟合的风险。数据预处理的方法包括:标准化、归一化、缺失值填充、特征选择、特征降维等。 5. 什么是特征选择?特征选择的方法有哪些? 特征选择是指从所有特征中选择出对模型预测结果有重要贡献的特征。特征选择的方法包括:过滤式方法、包裹式方法和嵌入式方法。其中,过滤式方法是基于特征间的关系进行特征选择,包裹式方法是基于模型的性能进行特征选择,嵌入式方法是将特征选择嵌入到模型训练中。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值