解读baseline与lightgbm学习

导入所需的库有

pandas—>用作数据处理

lightgbm—>模型

sklearn.metrics.mean_absolute_error—>mae计算函数

sklearn.model_selection.train_test_split—>数据集拆分工具

tqdm—>进度条工具

数据准备

train_dataset = pd.read_csv("./data/train.csv") # 原始训练数据。
test_dataset = pd.read_csv("./data/test.csv") # 原始测试数据
submit = pd.DataFrame() # 定义提交的最终数据。
submit["序号"] = test_dataset["序号"] # 对齐测试数据的序号。
MAE_scores = dict() # 定义评分项。

设定 LightGBM 训练参

lgb_params = {
    'boosting_type': 'gbdt',    #梯度提升方法
    'objective': 'regression',  #优化目标:回归
    'metric': 'mae',            #评估指标
    'min_child_weight': 5,      #权重最小和
    'num_leaves': 2 ** 5,       #树子节点数
    'lambda_l2': 10,            #正则化权重
    'feature_fraction': 0.8,    #特征随机选择比例
    'bagging_fraction': 0.8,    #数据随机选择比例
    'bagging_freq': 4,          #数据随机选择频率
    'learning_rate': 0.1,       #学习率
    'seed': 2020,               #随机种子
    'nthread': 28,              #并行线程数
    'verbose': -1,              #日志输出
}
参数选择
我采用了此套参数将分数训练至6.23961

特征提取

将序号drop 将时间转化为可训练类型 将原时间数据drop
在提取前将数据复制一份

从所有待预测特征中依次取出标签进行训练与预测。

训练模型,参数依次为:导入模型设定参数、导入训练集、设定模型迭代次数、导入验证集、禁止输出日志

以及以下是

lightgbm学习笔记

XGBoost—>梯度提升树框架的一个里程碑

CatBoost—>对离散特征数据进行了优化

LightGBM—>通过梯度采样与直方图算法支持并行化

XGBoost

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 1
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值