XGBoost参数
在运行XGboost之前,必须设置三种类型成熟:general parameters,booster parameters和task parameters:
- General parameters:参数控制在提升(boosting)过程中使用哪种booster,常用的booster有树模型(tree)和线性模型(linear model)。
- Booster parameters:这取决于使用哪种booster。
- Task parameters:控制学习的场景,例如在回归问题中会使用不同的参数控制排序。
- 除了以上参数还可能有其它参数,在命令行中使用
Parameters in R Package
In R-package, you can use .(dot) to replace under score in the parameters, for example, you can use max.depth as max_depth. The underscore parameters are also valid in R.
General Parameters
- booster [default=gbtree]
- 有两中模型可以选择gbtree和gblinear。gbtree使用基于树的模型进行提升计算,gblinear使用线性模型进行提升计算。
缺省值为gbtree
- 有两中模型可以选择gbtree和gblinear。gbtree使用基于树的模型进行提升计算,gblinear使用线性模型进行提升计算。
- silent [default=0]
- 取0时表示打印出运行时信息,取1时表示以缄默方式运行,不打印运行时信息。
缺省值为0
- 取0时表示打印出运行时信息,取1时表示以缄默方式运行,不打印运行时信息。
- nthread [default to maximum number of threads available if not set]
- XGBoost运行时的线程数。
缺省值是当前系统可以获得的最大线程数
- XGBoost运行时的线程数。
- num_pbuffer [set automatically by xgboost, no need to be set by user]

本文详细解析了XGBoost的参数,包括通用参数、booster参数和任务参数。通用参数如booster(选择gbtree或gblinear),booster参数涉及树模型和线性模型的设置,如eta(控制学习步长)、max_depth(限制树的深度)等。任务参数如objective(定义学习任务,如reg:linear、binary:logistic等)。了解这些参数有助于优化XGBoost模型的性能。
最低0.47元/天 解锁文章
307

被折叠的 条评论
为什么被折叠?



