xgboost.XGBClassifier参数

打*参数为重要
XGBClassifier(
1.silent=0#设置成1则没有运行信息输出,默认为0.是否在运行时打印消息
2.*learning_rate=0.1#学习率,过大收敛不了,小了收敛慢
3.*min_child_weight=1#叶子里面h的和,h就是二阶导不清楚的看看xgboost原理,该参数越小越容易过拟合
4.*max_depth=6, # 构建树的深度,越大越容易过拟合,可以用CV函数来进行调优
5.gamma=0, # 树的叶子节点上作进一步分区所需的最小损失减少,越大越保守,一般0.1、0.2这样子
6.subsample=1, # 随机采样训练样本 训练实例的子采样比,典型值的范围在0.5-0.9之间。
7.max_delta_step=0,#最大增量步长,我们允许每个树的权重估计
8.colsample_bytree=1, # 生成树时进行的列采样 同subsample,一般在0.5-0.9
9.reg_lambda=1#控制模型复杂度的权重值的L2正则化项参数,越大越不容易过拟合
10.reg_alpha=0, # L1 正则项参数
11.n_estimators=100, #树的个数
12.objective= ‘multi:softmax’, #多分类的问题 指定学习任务和相应的学习目标
13.num_class=10, # 类别数,多分类与 multisoftmax 并用
14.seed=1000 #随机种子
15.scale_pos_weight=1, #如果取值大于0的话,在类别样本不平衡的情况下有助于快速收敛。平衡正负权重
16.nthread=4,# cpu 线程数 默认最大,没事你就别管他了

  • 0
    点赞
  • 3
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值