随机森林源代码c++_机器学习100天-Day1803随机森林

b5598847c65366233016a32c125b99e3.png

说明:本文依据《Sklearn 与 TensorFlow 机器学习实用指南》完成,所有版权和解释权均归作者和翻译成员所有,我只是搬运和做注解。

第六章集成学习和随机森林

假设你去随机问很多人一个很复杂的问题,然后把它们的答案合并起来。通常情况下你会发现这个合并的答案比一个专家的答案要好。这就叫做群体智慧

如果合并一组分类器的预测(像分类或者回归),同样会得到一个比单一分类器更好的预测结果。这一组分类器就叫做集成。

因此,这个技术就叫做集成学习,一个集成学习算法就叫做集成方法。

例如,你可以训练一组决策树分类器,每一个都在一个随机的训练集上。为了去做预测,你必须得到所有单一树的预测值,然后通过投票(例如第六章的练习)来预测类别。例如一种决策树的集成就叫做随机森林,它除了简单之外也是现今存在的最强大的机器学习算法之一。

一般会在一个项目快结束的时候使用集成算法,一旦你建立了一些好的分类器,就把他们合并为一个更好的分类器。在机器学习竞赛中获得胜利的算法经常会包含一些集成方法。

本章中,教程讨论了几个著名的集成方法:bagging, boosting, stacking和其他一些算法。我们也会讨论随机森林

源代码已经同步在github中 https://github.com/jwc19890114/-02-learning-file-100days

本章中理论多过实操,所以基本上是抄了,如果不喜欢的同学可以直接看github里面的源文档。

3.随机森林

随机森林是决策树的一种集成,通常使用bagging方法进行训练。

参数设置:

  • max_samples设置训练集大小
  • n_estimators设置随机森林树大小
  • max_leaf_nodes设置叶子节点数
bag_clf=BaggingClassifier( DecisionTreeClassifier(splitter="random
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值