随机森林详解

随机森林是一种集成学习方法,通过构建多个决策树并结合它们的预测来提高分类准确性和防止过拟合。该方法利用自助抽样法生成训练子集,随机选择特征构建决策树,最后通过多数投票确定分类结果。测试结果的正确性可以通过比较预测分类与真实分类的匹配率进行评估。
摘要由CSDN通过智能技术生成

  随机森林(Random Forest)是属于集成学习的一种组合分类算法,集成学习的核心思想就是将若干个弱(基)分类器组合起来,得到一个分类性能显著优越的强分类器。如果各弱分类器之前没有强依赖关系、可并行生成,就可以使用随机森林算法。
  随机森林利用自主抽样法(bootstrap)从原数据集中有放回地抽取多个样本,对抽取的样本先用弱分类器—决策树进行训练,然后把这些决策树组合在一起,通过投票得出最终的分类或预测结果。

(一)决策树

  决策树是一种树形结构,其中有三种几点:根结点、中间结点和叶子结点。树中的每个结点都表示对象的特征,根结点为训练对象的集合,边为父节点对于某一特征的某种可能的取值规则,中间结点为父结点根据某一特征的某种可能的取值筛选后形成的训练对象的集合,叶子结点为分类结果。决策树的结构如图1所示。

image

图1 决策树结构示意图

  运用决策树进行分类的算法称为决策树分类算法,其基本原理是:把被分类的对象从根结点开始,测试该结点对应的特征,然后按照给定的特征的取值按照对应的边往下遍历,直到到达叶子结点获得被分类对象的类别。
  决策树作为一种弱分类器,采取的是单一的分类决策模式,所以存在很多缺点,比如过度拟合、分类规则复杂、只能得到局部最优解等。

(二)随机森林

  为了解决决策树模型存在的问题,在决策树的基础上,结合多个分类器组合的思想,由多个决策树生成随机森林。随机森林的核心思想就是,对训练集进行重采样,组成多个训练子集,每个子集生成一个决策树,所有决策树通过投票的方式进行决策,组成随机森林。
  为了描述方便,我们设训练极为T,由N个样本,即T={t1,t2,…,tN},设特征集为F,有M维特征,即F={f1,f2,…,fM},类别集合为C,有L种类别,即C={c1,c2,…,cL},测试集为D,有λ个测试样本,即D={d1,d2,…,dλ}。
  随机森林的算法流程如下所示:

1. 从容量为N的训练集T中,采用自助抽样法(bootstrap),即有放回地抽取N个样本,作为一个训练子集Tk
2. 对于训练子集Tk,从特征集F中无放回地随机抽取m个特征,其中m=log2M(向上取整),作为决策树上的每个节点分裂的依据,从根结点开始,自上而下生成一个完整的决策树Sk,不需要剪枝;
3. 重复n次步骤1和2,得到n个训练子集T1,T2</

评论 7
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值