Lightgbm参数说明

    Lightgbm是基于决策树的分布式梯度提升框架,以选取最大信息增益作为特征选择的目标。

    它主要的参数有     【转自lightgbm参数说明

关于lightgbm params的说明
task = train   #配置目标是用于训练
boosting_type = gbdt    # 训练方式
objective = binary      #目标:二分类
metric = binary_logloss,auc   #损失函数
metric_freq = 1     #度量输出的频度
is_training_metric = true   #true代表需要输出训练数据的度量,又称tranining_metric, train_metric
max_bin = 255  #特征最大分割
data = /Users/shuubiasahi/Documents/githup/LightGBM/examples/binary_classification/binary.train  #训练数据地址
num_trees = 100   #树的棵树
learning_rate = 0.1     #学习率
num_leaves = 63   #决策树的叶子节点数。
(Lightgbm用决策树叶子节点数来确定树的复杂度,而XGboost用max_depth确定树的复杂度)
    其中,num_leaves的设置与数据集特征总数有关,num_leaves尽量小于完全二叉树的叶子节点数,否则容易过拟合。

tree_learner = serial
num_threads = 8       # 最大线程个数
feature_fraction = 0.8    # feature sub-sample, will random select 80% feature to train on each iteration, alias: sub_feature

bagging_freq = 5     # Support bagging (data sub-sample), will perform bagging every 5 iterations

bagging_fraction = 0.8       # Bagging farction, will random select 80% data on bagging, alias: sub_row
 
min_data_in_leaf = 50     # minimal number data for one leaf, use this to deal with over-fit, alias : min_data_per_leaf, min_data

min_sum_hessian_in_leaf = 5.0     # minial sum hessians for one leaf, use this to deal with over-fit

is_enable_sparse = true      # save memory and faster speed for sparse feature, alias: is_sparse

use_two_round_loading = false    # when data is bigger than memory size, set this to true. otherwise set false will have faster speed
                                 # alias: two_round_loading, two_round

is_save_binary_file = false     # true if need to save data to binary file and application will auto load data from binary file next time
                                # alias: is_save_binary, save_binary   

#模型输出文件
output_model = /Users/shuubiasahi/Documents/githup/LightGBM/examples/binary_classification/LightGBM_model.txt
machine_list_file = /Users/shuubiasahi/Documents/githup/LightGBM/examples/binary_classification/LightGBM_model.txt/mlist.txt


  • 1
    点赞
  • 6
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
Python lightgbm参数可以在官方文档中找到。具体来说,可以查看LightGBM的Python API文档,其中包含了详细的参数说明和用法。另外,还可以参考LightGBM的文档和一些技术博客来获取更多关于参数的信息。 在Python中,可以使用lightgbm库提供的相关类来创建和训练LightGBM模型。例如,使用lightgbm.sklearn.LGBMClassifier()类可以创建一个LightGBM分类器模型。 需要注意的是,LightGBM的底层实现是一致的,无论是使用Python还是其他语言,都可以使用import lightgbm as lgb来导入相关库。 因此,如果你想了解Python lightgbm参数,请参考官方文档和其他参考资料,以便获得更详细和全面的信息。<span class="em">1</span><span class="em">2</span><span class="em">3</span> #### 引用[.reference_title] - *1* [Lightgbm原理、参数详解及python实例](https://blog.csdn.net/qq_24591139/article/details/100085359)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v93^chatsearchT3_1"}}] [.reference_item style="max-width: 50%"] - *2* *3* [lightgbm的使用和参数说明](https://blog.csdn.net/qq_37774098/article/details/120076102)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v93^chatsearchT3_1"}}] [.reference_item style="max-width: 50%"] [ .reference_list ]

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值