机器学习:随机森林RF-OOB袋外错误率

        文章讲解比较详细,且有Python代码,可以作为有用的参考。转载博客时候,竟然抄错成OBB了,也是悲剧................

        有篇神文评测了17个分类器族-192个非神经网络分类器,其中Rfs综合评价效果最好:https://dl.acm.org/doi/10.5555/2627435.2697065 ; Do we need hundreds of classifiers to solve real world ...

       原文链接:https://www.cnblogs.com/maybe2030/p/4585705.html

       不过我还是觉得CSDN排版比较花哨一些:http://blog.csdn.net/zhufenglonglove/article/details/51785220

 

 参数:OOB-袋外错误率

         构建随机森林的另一个关键问题就是如何选择最优的m(特征个数),要解决这个问题主要依据计算袋外错误率oob error(out-of-bag error)。

    随机森林有一个重要的优点就是,没有必要对它进行交叉验证或者用一个独立的测试集来获得误差的一个无偏估计。它可以在内部进行评估,也就是说在生成的过程中就可以对误差建立一个无偏估计。

    我们知道,在构建每棵树时,我们对训练集使用了不同的bootstrap sample(随机且有放回地抽取)。所以对于每棵树而言(假设对于第k棵树),大约有1/3的训练实例没有参与第k棵树的生成,它们称为第k棵树的oob样本。

  而这样的采样特点就允许我们进行oob估计,它的计算方式如下:

  (note:以样本为单位)

  1)对每个样本,计算它作为oob样本的树对它的分类情况(约1/3的树);

  2)然后以简单多数投票作为该样本的分类结果;

  3)最后用误分个数占样本总数的比率作为随机森林的oob误分率。

  (文献原文:Put each case left out in the construction of the kth tree down the kth tree to get a classification. In this way, a test set classification is obtained for each case in about one-third of the trees. At the end of the run, take j to be the class that got most of the votes every time case n was oob. The proportion of times that j is not equal to the true class of n averaged over all cases is the oob error estimate. This has proven to be unbiased in many tests.)

  oob误分率是随机森林泛化误差的一个无偏估计,它的结果近似于需要大量计算的k折交叉验证。

 

后记:

 

       一般的方法是,特征的维数是先确定的。更多的是对随机森林本身参数的选择,比如随机深林的层数,和树木的个数。

 

  • 13
    点赞
  • 68
    收藏
    觉得还不错? 一键收藏
  • 17
    评论
YOLO高分设计资源源码,详情请查看资源内容中使用说明 YOLO高分设计资源源码,详情请查看资源内容中使用说明 YOLO高分设计资源源码,详情请查看资源内容中使用说明 YOLO高分设计资源源码,详情请查看资源内容中使用说明YOLO高分设计资源源码,详情请查看资源内容中使用说明YOLO高分设计资源源码,详情请查看资源内容中使用说明YOLO高分设计资源源码,详情请查看资源内容中使用说明YOLO高分设计资源源码,详情请查看资源内容中使用说明YOLO高分设计资源源码,详情请查看资源内容中使用说明YOLO高分设计资源源码,详情请查看资源内容中使用说明YOLO高分设计资源源码,详情请查看资源内容中使用说明YOLO高分设计资源源码,详情请查看资源内容中使用说明YOLO高分设计资源源码,详情请查看资源内容中使用说明YOLO高分设计资源源码,详情请查看资源内容中使用说明YOLO高分设计资源源码,详情请查看资源内容中使用说明YOLO高分设计资源源码,详情请查看资源内容中使用说明YOLO高分设计资源源码,详情请查看资源内容中使用说明YOLO高分设计资源源码,详情请查看资源内容中使用说明YOLO高分设计资源源码,详情请查看资源内容中使用说明YOLO高分设计资源源码,详情请查看资源内容中使用说明YOLO高分设计资源源码,详情请查看资源内容中使用说明YOLO高分设计资源源码,详情请查看资源内容中使用说明YOLO高分设计资源源码,详情请查看资源内容中使用说明YOLO高分设计资源源码,详情请查看资源内容中使用说明YOLO高分设计资源源码,详情请查看资源内容中使用说明YOLO高分设计资源源码,详情请查看资源内容中使用说明
随机森林是一种集成学习方法,它通过构建多个决策树来提高预测准确性。下面是sklearn中随机森林的一些基本步骤、参数、属性和接口: 1. 基本步骤: 1.1 参数n_estimators:指定森林中树的数量。 1.2 建立森林:使用RandomForestClassifier()函数建立随机森林。 1.3 n_estimators的学习曲线:使用validation_curve()函数绘制n_estimators的学习曲线。 2. 重要的参数、属性、接口: 2.1 random_state:在划分训练集和测试集的类train_test_split、构建决策树的函数、构建随机森林时都可以使用该参数,它可以保证每次运行时得到的结果都是一样的。 2.2 estimators_:查看森林中每棵树的状况。 2.3 bootstrap & oob_score:bootstrap参数控制是否进行有放回的随机抽样,oob_score参数控制是否使用袋外样本来评估模型的准确性。 2.4 fit & score:fit()函数用于拟合模型,score()函数用于评估模型的准确性。 2.5 feature_importances_:查看每个特征的重要性。 2.6 apply:返回每个样本所在的叶子节点的索引。 2.7 predict:对新数据进行预测。 2.8 predict_proba:返回每个类别的概率。 3. 随机森林回归器: 3.1 重要的参数、属性、接口:与分类器类似,但是需要使用RandomForestRegressor()函数来建立随机森林回归器。 4. 机器学习中调参的基本思想: 泛化误差:模型在新数据上的误差。 标签和特征:标签是我们要预测的变量,特征是我们用来预测标签的变量。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 17
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值