在上一篇文章中,笔者介绍了常见集成模型的主要思想,并且还提到随机森林是使用最为广泛的集成模型之一。因此在本篇文章中,笔者将会再次就随机森林的其它应用以及其在sklearn中的具体用法进行介绍。
1 API介绍
在上一篇文章中,我们介绍了随机森林的基本原理,但并没有对其的具体用法做出详细的示例。接下来,我们就对其在sklearn[1]中的具体用法进行介绍。
打开sklearn中关于随机森林的定义可以发现:
A random forest classifier.
A random forest is a meta estimator that fits a number of decision tree classifiers on various sub-samples of the dataset and uses averaging to improve the predictive accuracy and control over-fitting.
随机森林是一个元估计器,它是由一系列的决策树分类器所构成;并且每个决策树都是通过原始训练集中的部分数据样本训练得来,最后通过’平均‘的方式来提升分类准确率和控制过拟合现象。
def __init__(self,
n_estimators=100,
criterion="gini",
max_depth=None,
min_samples_split=2,
min_samples_leaf=1,
bootstrap=True,
n_jobs=None,
random_state=None,
max_samples=None):
以上代码为sklearn中对于随机森林分类器中常用的参数,其中相关