最近通过参加比赛来进行学习,前两天主要是调用了lightgbm,kfold,gridsearch,xgboost这几个模型/api。
简单谈谈体会,感觉整体的训练过程就好像盖房子,自己是建筑师:
- 首先需要有一个建筑的图纸,也就是一个空模型,如xgb或者lgb或其他模型
- 然后要建筑工人累砖瓦,也就是填入模型的参数,比如xgb的xgb.train(params),而对于metrics其实就相当于垒砖瓦的时候的标尺,标线
3 然后需要装修工人进去装修,就是xgb.fit(),训练多少论,是否需要打印每轮迭代效果,就相当于你的装修预算,给你装修报备等等 - KFold是啥?就是把这个建筑分为几个楼层,不加KFold是一次性装修完,有了KFold就把建筑分层装修,比如n_splits = 5,就是分为五层装修,一层他们先装修一下(将train_idx放入model.fit),然后你检查一下(将val_idx放入model.fit)
- 装修好了,最后让你检查一下针对每个指标打分,也就是xgb.predict(test)