1. 随机森林算法简介
前面我们知道决策树算法通过从决策树根节点开始,对待检测样本的某一个特征进行测试,根据测试结果转向左子树或者右子树,如此递归达到停止条件,叶节点所表示的类别,就是决策树对该样本的预测结果。有的时候单一的决策树并不能够起到较好的效果,因此需要建立多棵决策树来提升模型效果。但是如果对于每一棵树都使用全部的样本进行训练,那么最终得到的树都是一模一样的。因此引入boostrap方法来生成每棵树的训练样本,boostrap是一种随机又放回的抽样,这也是随机森林中“随机”的由来。至于森林,生成的多棵决策树通过一定的规则组合起来就形成了最终的模型。
2. 随机森林模型
boostrap方法
boostrap方法是Efron在20世纪70年代后期建立的一种抽样方法,其抽样方法为:假设已有一个容量为
的来自分布
<