Bagging与随机森林

本文介绍了Bagging算法和随机森林的概念及其在机器学习中的应用。Bagging通过随机采样创建多个模型,再结合这些模型进行预测,降低了方差。随机森林则是Bagging的增强版,通过在决策树构建过程中引入属性随机性进一步提高性能。结合策略包括平均法(数值预测)和投票法(分类问题)。
摘要由CSDN通过智能技术生成

一、Bagging算法


Bagging是并行集成学习方法最著名的代表,可以用来提高学习算法准确度的方法,这种方法通过构造一个预测函数系列,然后以一定的方式将它们组合成一个预测函数。Bagging要求“不稳定”(不稳定是指数据集的小的变动能够使得分类结果的显著的变动)的分类方法。比如:决策树,神经网络算法

Bagging的基本流程为:

1、首先采取随机采样(bootsrap),也就是从我们的训练集里面随机采集固定个数的样本,但是每采集一个样本后,都将样本放回。对于我们的Bagging算法,一般会随机采集和训练集样本数m一样个数的样本。这样得到的采样集和训练集样本的个数相同,但是样本内容不同。如果我们对有m个样本训练集做T次的随机采样,,则由于随机性,T个采样集各不相同。

2、随机采样后对样本进行训练,建立分类器(ID3、C4.5、CART、SVM、Logistic回归等算法)。

3、重复上述步骤n次,即可得到n个分类器。

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值