ks 算法建模集_XGB建模流程化

本文介绍了如何将XGB建模流程化,重点在于数据处理和模型参数调整。通过设定默认参数或自定义参数,如max_depth、min_child_weight等,控制过拟合并进行交叉验证,确保模型稳定。强调模型的业务适用性比KS、AUC更重要,并分享了模型输出和部署的经验。
摘要由CSDN通过智能技术生成

5b8936222f3aad5ac3e7095234e41306.png

建模的要点80%在数据,我是真的理解到了,心痛、头疼☠

本篇主要是把xgb建模流程化,处理好数据,扔进去个把小时就搞定了,很easy。经常用于三方数据的测试,说起这个也是头大,外测返回数据一般分为评分、标签或者特征变量表。当返回众多特征时,可以简单的跑下模型,看看初期表现,再决定是否深入分析,不然众多厂商的数据,花时间各种弄完,发现并不适用,就白瞎了。

import xgboost as xgb
from tool_finally import cal_ks,kfold_xgb_lgbm
file=os.getcwd()

tool_finally 是自定义的函数,包含计算模型KS,K折交叉验证等,稍后会整理发出。

补充一下,测试集与训练集KS差4,5个百分点已经是上限了,哥们儿。

'''1.预跑初版模型'''
params={'base_score': 0.5, 'booster': 'gbtree', 'colsample_bylevel': 0.8,
        'colsample_bynode': 1, 'colsample_bytree': 0.3, 'gamma': 13, 'learning_rate': 0.1,
         'max_delta_step': 0,'max_depth': 3, 'min_child_weight': 5, 'missing': None, 'n_estimators': 190,
        'n_jobs': 1,  'objective': 'binary:logistic', 'random_state': 0, 'reg_alpha': 18,
        'reg_lambda': 1, 'scale_pos_weight': 1, 'seed': None, 'silent': False, 'subsample': 0.8, 'verbosity': 1}
model = xgb.XGBClassifier(**params)
model.fit(x_train,y_train)
predprob_train,predprob_test=cal_ks(model,x_train,y_train,x_test,y_test)#计算初版KS

初版的参数可以全是默认,也可以是多次建模的常用参数,怎么舒服怎么来呗。

2.调参,建议组合参数尽量不要超过

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值