RandomForest调参,不断总结

class sklearn.ensemble.RandomForestClassifier(
n_estimators: int 默认10
criterion:gini” or “entropy”(default=”gini”)表示使用基尼不纯度还是信息增益来计算属性,来选择最合适的节点。
max_depth:(default=None)设置树的最大深度,默认为None,直到使每一个叶节点只有一个类别,或是达到min_samples_split。
min_samples_split:默认2,int(可以被分割的所含最小样本数),float(总样本的百分比)
min_samples_leaf:默认1,int或float,叶子节点所含最少样本数
min_weight_fraction_leaf:(default=0) 叶子节点所需要的最小权值(当样本采样权重设置时才有意义,叶子节点的权重为属于该节点的所有样本权重和)
max_features:(default=”auto”) 每次找最好的分割点是可以考虑的特征数

If int,特征数
If float, 特征总数的百分比
If “auto”, sqrt(n_features).
If “sqrt”, sqrt(n_features)
If “log2”, log2(n_features).
If None, 全部特征数


max_leaf_nodes:
最大叶节点数 和树的最大深度同样作用
min_impurity_split
bootstrap:
是否有放回采样,默认True
oob_score:默认False,是否使用袋外数据统计泛华误差。
利用在某次决策树训练中没有被采样选中的数据对该单个模型进行验证,算是一个简单的交叉验证。性能消耗小,但是效果不错。

n_jobs:默认1.可并行job数。-1代表有多少job=core

import timeit 来计时统计查看速度差别:运行多个函数并提供最快的循环运行时间


random_state:如果给定相同的参数和训练数据,random_state的确定值将始终产生相同的结果。
一个具有不同随机状态的多个模型的集合,并且所有最优参数有时比单个随机状态更好。
verbose:(default=0) 是否显示任务进程
warm_start:False热启动,决定是否使用上次调用该类的结果然后增加新的。
class_weight:None,各个label的权重





点击打开链接

Random Forest和Gradient Tree Boosting调参


  • 0
    点赞
  • 11
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值