参考url:
https://jakevdp.github.io/PythonDataScienceHandbook/05.08-random-forests.html
无参数算法随机森林,是一种集成方法,通过集成多个比较简单的评估器形成累计效果,即若干评估器的多数投票(majority vote)的最终效果往往优于单个评估器投票的效果。
1、随机森林的诱因:决策树
随机森林是建立在决策树基础上的集成学习器。
决策树采用非常直观的方式对事物进行分类或打标签:只需问一系列问题就可以进行分类了。
二叉树分支方法可以非常有效地进行分类:在一颗结构合理的决策树中,每个问题基本上都可将种类可能性减半,即使是对大量种类进行决策时,也可以很快地缩小选择范围。
决策树的难点在于如何设计每一步的问题,在实现决策树的机器学习算法中,问题通常因分类边界是与特征轴平行的形式分割数据而造成的,即决策树的每个节点都根据一个特征的阈值将数据分成两组。
1、创建一颗决策树
在这组数据上构建的简单决策树不断将数据的一个特征或另一个特征按照某种判定条件进行分割。
每分割一次,都将新区域内点的多数投票结果标签分配到该区域上。