sklearn专题二:随机森林

目录

1 概述

1.1 集成算法概述

1.2 sklearn中的集成算法

2 RandomForestClassifier

2.1 重要参数

2.1.1 控制基评估器的参数

2.1.2 n_estimators

3 RandomForestRegressor

3.1 重要参数,属性与接口

3.2 实例:用随机森林回归填补缺失值

4 机器学习中调参的基本思想

5实例:随机森林在乳腺癌数据上的调参


 

1 概述

1.1 集成算法概述

集成学习(ensemble     learning)是时下非常流行的机器学习算法,它本身不是一个单独的机器学习算法,而是通过在数据上构建多个模型,集成所有模型的建模结果。基本上所有的机器学习领域都可以看到集成学习的身影,在  现实中集成学习也有相当大的作用,它可以用来做市场营销模拟的建模,统计客户来源,保留和流失,也可用来预  测疾病的风险和病患者的易感性。在现在的各种算法竞赛中,随机森林,梯度提升树(GBDT),Xgboost等集成   算法的身影也随处可见,可见其效果之好,应用之广。

集成算法的目标

集成算法会考虑多个评估器的建模结果,汇总之后得到一个综合的结果,以此来获取比单个模型更好的回归或  分类表现

多个模型集成成为的模型叫做集成评估器(ensemble estimator),组成集成评估器的每个模型都叫做基评估器(base estimator)。通常来说,有三类集成算法:装袋法(Bagging),提升法(Boosting)和stacking

装袋法的核心思想是构建多个相互独立的评估器,然后对其预测进行平均或多数表决原则来决定集成评估器的结果。装袋法的代表模型就是随机森林。

提升法中,基评估器是相关的,是按顺序一一构建的。其核心思想是结合弱评估器的力量一次次对难以评估的样本进行预测,从而构成一个强评估器。提升法的代表模型有Adaboost和梯度提升树。

1.2 sklearn中的集成算法

sklearn中的集成算法模块ensemble

类的功能

ensemble.AdaBoostClassifier

AdaBoost分类

ensemble.AdaBoostRegressor

Adaboost回归

ensemble.BaggingClassifier

装袋分类器

ensemble.BaggingRegressor

装袋回归器

ensemble.ExtraTreesClassifier

Extra-trees分类(超树,极端随机树)

ensemble.ExtraTreesRegressor

Extra-trees回归

ensemble.GradientBoostingClassifier

梯度提升分类

ensemble.GradientBoostingRegressor

梯度提升回归

ensemble.IsolationForest

隔离森林

ensemble.RandomForestClassifier

随机森林分类

ensemble.RandomForestRegressor

随机森林回归

ensemble.RandomTreesEmbedding

完全随机树的集成

ensemble.VotingClassifier

用于不合适估算器的软投票/多数规则分类器

 集成算法中,有一半以上都是树的集成模型,可以想见决策树在集成中必定是有很好的效果。

RandomForestClassifier

class (n_estimators=’10’, criterion=’gini’, max_depth=None,min_samples_split=2, min_samples_leaf=1, min_weight_fraction_leaf=0.0, max_features=’auto’, max_leaf_nodes=None, min_impurity_decrease=0.0, min_impurity_split=None, bootstrap=True, oob_score=False, n_jobs=None, random_state=None, verbose=0, warm_start=False, class_weight=None)

随机森林是非常具有代表性的Bagging集成算法,它的所有基评估器都是决策树,分类树组成的森林就叫做随机森林分类器,回归树所集成的森林就叫做随机森林回归器。这一节主要讲解RandomForestClassifier,随机森林分类器。

2.1 重要参数

2.1.1 控制基评估器的参数

参数

含义

criterion

不纯度的衡量指标,有基尼系数和信息熵两种选择

max_depth

树的最大深度,超过最大深度的树枝都会被剪掉

min_samples_leaf

一个节点在分枝后的每个子节点都必须包含至少min_samples_leaf个训练样  本,否则分枝就不会发生

min_samples_split

一个节点必须要包含至少min_samples_split个训练样本,这个节点才允许被分  枝,否则分枝就不会发生

max_features

max_features限制分枝时考虑的特征个数,超过限制个数的特征都会被舍弃,  默认值为总特征个数开平方取整

min_impurity_decrease

限制信息增益的大小,信息增益小于设定数值的分枝不会发生

2.1.2 n_estimators

这是森林中树木的数量,即基评估器的数量。这个参数对随机森林模型的精确性影响是单调的,n_estimators越    大,模型的效果往往越好。但是相应的,任何模型都有决策边界,n_estimators达到一定的程度之后,随机森林的     精确性往往不在上升或开始波动,并且,n_estimators越大,需要的计算量和内存也越大,训练的时间也会越来越    长。对于这个参数,我们是渴望在训练难度和模型效果之间取得平衡。

  • 1
    点赞
  • 30
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值