在集成算法这一章中,我们大概的阐述了一下常用的两种集成算法,这里我们就具体研究一下 b a g g i n g bagging bagging 算法中最常用的模型:随机森林。
由前面我们了解: b a g g i n g bagging bagging + 决策树 = 随机森林,所以在学习随机森林之前,我们必须了解决策树相关的知识,这些我在ID3,C4.5,CART中已经比较详细的讲过一遍,这里就不在赘述了,有不懂的童鞋可以去前面看看。
算法思想
随机森林是集成学习的一个子类,它依靠于决策树的投票选择来决定最后的分类结果,通俗的讲,随机森林就是用随机的方式建立一个森林,森林由许多决策树组成,而且每一棵决策树相互之间是没有关联的。得到森林后,当有一个新的样本进入森林后,就让森林中的每一个决策树分别进行判断,看看这个样本属于哪一个类,最终哪一个类最多,就预测这个样本属于哪一个类。
算法流程
1. 从样本集中有放回的随机选取n个样本
2. 如果每个样本的特征维度为 m m m,指定一个常数 n < < m n<<m n<<