Python实现哈里斯鹰优化算法(HHO)优化LightGBM回归模型(LGBMRegressor算法)项目实战

376 篇文章 275 订阅

说明:这是一个机器学习实战项目(附带数据+代码+文档+视频讲解),如需数据+代码+文档+视频讲解可以直接到文章最后获取。




1.项目背景

2019年Heidari等人提出哈里斯鹰优化算法(Harris Hawk Optimization, HHO),该算法有较强的全局搜索能力,并且需要调节的参数较少的优点。

本项目通过HHO哈里斯鹰优化算法寻找最优的参数值来优化LightGBM回归模型。

2.数据获取

本次建模数据来源于网络(本项目撰写人整理而成),数据项统计如下:

 

数据详情如下(部分展示):

3.数据预处理

3.1 用Pandas工具查看数据

使用Pandas工具的head()方法查看前五行数据:

关键代码:

3.2数据缺失查看

使用Pandas工具的info()方法查看数据信息:

从上图可以看到,总共有9个变量,数据中无缺失值,共1000条数据。

关键代码:

3.3数据描述性统计

通过Pandas工具的describe()方法来查看数据的平均值、标准差、最小值、分位数、最大值。

关键代码如下:

4.探索性数据分析

4.1 y变量直方图

用Matplotlib工具的hist()方法绘制直方图:

从上图可以看到,y变量主要集中在-300~300之间。

4.2 相关性分析

从上图中可以看到,数值越大相关性越强,正值是正相关、负值是负相关。  

5.特征工程

5.1 建立特征数据和标签数据

关键代码如下:

5.2 数据集拆分

通过train_test_split()方法按照80%训练集、20%测试集进行划分,关键代码如下:

6.构建HHO哈里斯鹰优化算法优化LightGBM回归模型

主要使用HHO哈里斯鹰优化算法优化LightGBM回归算法,用于目标回归。

6.1 HHO哈里斯鹰优化算法寻找的最优参数

关键代码:

每次迭代的过程数据:

 最优参数:

6.2 最优参数值构建模型

 

7.模型评估

7.1 评估指标及结果

评估指标主要包括可解释方差值、平均绝对误差、均方误差、R方值等等。

从上表可以看出,R方0.9597,为模型效果良好。

关键代码如下:

 7.2 真实值与预测值对比图

从上图可以看出真实值和预测值波动基本一致,模型拟合效果良好。       

8.结论与展望

综上所述,本文采用了HHO哈里斯鹰优化算法寻找LightGBM回归模型的最优参数值来构建回归模型,最终证明了我们提出的模型效果良好。此模型可用于日常产品的预测。  


# 本次机器学习项目实战所需的资料,项目资源如下:
 
# 项目说明:

# 链接:https://pan.baidu.com/s/169aAhy1ESmH50ATl0egs4g 
# 提取码:b9wf

 更多项目实战,详见机器学习项目实战合集列表:

机器学习项目实战合集列表_机器学习实战项目_胖哥真不错的博客-CSDN博客


  • 0
    点赞
  • 5
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论
好的,以下是利用贝叶斯优化优化LightGBM回归模型Python 代码实例: 首先,需要安装必要的库,包括 `lightgbm`、`scikit-learn`、`bayesian-optimization`: ```python !pip install lightgbm scikit-learn bayesian-optimization ``` 然后,可以使用下面的代码来进行模型优化: ```python import lightgbm as lgb from sklearn.datasets import load_boston from sklearn.metrics import mean_squared_error from bayes_opt import BayesianOptimization # 加载数据集 boston = load_boston() X, y = boston.data, boston.target # 定义 LightGBM 模型训练和评估函数 def lgb_evaluate(num_leaves, feature_fraction, bagging_fraction, max_depth, min_split_gain, min_child_weight): params = {'application':'regression','num_iterations': 1000, 'learning_rate':0.05, 'early_stopping_round':50, 'metric':'l2'} params["num_leaves"] = int(round(num_leaves)) params['feature_fraction'] = max(min(feature_fraction, 1), 0) params['bagging_fraction'] = max(min(bagging_fraction, 1), 0) params['max_depth'] = int(round(max_depth)) params['min_split_gain'] = min_split_gain params['min_child_weight'] = min_child_weight lgb_train = lgb.Dataset(X, y) cv_result = lgb.cv(params, lgb_train, nfold=5, seed=1, stratified=False, verbose_eval =None, metrics=['l2']) return -1.0 * cv_result['l2-mean'][-1] # 定义超参数搜索空间 lgbBO = BayesianOptimization(lgb_evaluate, {'num_leaves': (24, 45), 'feature_fraction': (0.1, 0.9), 'bagging_fraction': (0.8, 1), 'max_depth': (5, 8.99), 'min_split_gain': (0.001, 0.1), 'min_child_weight': (5, 50)}, random_state=1) # 进行贝叶斯优化 lgbBO.maximize(init_points=5, n_iter=25, acq='ei', xi=0.01) # 输出最佳超参数和最佳评估结果 print(lgbBO.max) ``` 在上面的代码中,首先加载了波士顿房价数据集,然后定义了一个 `lgb_evaluate` 函数来训练和评估 LightGBM 模型。 接下来,定义了一个超参数的搜索空间,并使用 `BayesianOptimization` 类来实现贝叶斯优化。在进行超参数搜索时,使用了 5 个初始点和 25 次迭代,采用 EI(Expected Improvement)作为采样策略。最后输出了最佳超参数和最佳评估结果。 注意,这里使用的是 `maximize` 函数,因为我们要最大化评估指标(L2 损失),所以需要取负号。如果要最小化指标,则不需要取负号。 希望这个例子可以帮助到你!
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

胖哥真不错

您的鼓励,将是我最大的坚持!

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值