xgboost库安装和实例

说明本实例都是经过正常运行。

环境:

Win10-64版本,python3.6 

1.下载安装xgboost

在该网站下载https://www.lfd.uci.edu/~gohlke/pythonlibs/#xgboost


2.在进入cmd模式

pip install xgboost-0.72-cp36-cp36m-win_amd64.whl

这样就完成安装xgboost,网上各种安装,请看官注意,反正我这是正常运行的

3.测试

import xgboost

如果不提示错误,那么安装成功了。

4.运行实例

用xgboost预测糖尿病的例子

4.1准备数据 

pima-indians-diabetes.data.csv,这个数据百度搜出来,官网已经没有了。自己百度找出来。https://pan.baidu.com/s/1c24tweW#list/path=%2F

# 先导⼊入所有要⽤用的class
import numpy
import xgboost
from sklearn import cross_validation
from sklearn.metrics import accuracy_score
# load数据集
dataset = numpy.loadtxt('pima-indians-diabetes.data.csv', delimiter=",")
# 把 X Y 分开
X = dataset[:,0:8]
Y = dataset[:,8]
# 现在我们分开训练集和测试集
seed = 7
test_size = 0.33
X_train, X_test, y_train, y_test = cross_validation.train_test_split \
(X, Y, test_size=test_size, random_state=seed)
# 训练模型
model = xgboost.XGBClassifier()
# 这⾥里里参数的设置可以⻅见:http://xgboost.readthedocs.io/en/latest/python/
python_api.html#module-xgboost.sklearn
model.fit(X_train, y_train)
# 做预测
y_pred = model.predict(X_test)
predictions = [round(value) for value in y_pred]
# 显示准确率
accuracy = accuracy_score(y_test, predictions)

print("Accuracy: %.2f%%" % (accuracy * 100.0))

注意几点,文件名要看清楚,

结果是



  • 7
    点赞
  • 36
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论
XGBoost是一个高效的梯度提升,它提供了对超参数进行优化的功能。贝叶斯优化是一种常用的全局优化方法,用于寻找高维空间中的局部最优解。以下是使用Python的skopt(基于贝叶斯优化)对XGBoost模型的参数进行优化的一个简单实例: ```python # 导入必要的 import xgboost as xgb from sklearn.datasets import load_boston from sklearn.model_selection import train_test_split from skopt import gp_minimize from skopt.space import Real, Integer # 加载数据 boston = load_boston() X, y = boston.data, boston.target X_train, X_test, y_train, y_test = train_test_split(X, y, test_size=0.2, random_state=42) # 定义XGBoost的参数空间 param_space = { 'n_estimators': Integer(10, 200), # 树的数量 'max_depth': Integer(1, 16), # 树的最大深度 'learning_rate': Real(0.01, 0.3), # 学习率 'gamma': Real(0, 1), # 分裂阈值 'subsample': Real(0.5, 1), # 子样本比例 'colsample_bytree': Real(0.5, 1) # 每棵树使用的特征列比例 } def objective(params): model = xgb.XGBRegressor(**params) model.fit(X_train, y_train) score = model.score(X_test, y_test) # 使用R^2分数评估 return -score # skopt优化目标函数通常求最小值,所以我们取负数 # 使用贝叶斯优化寻找最佳参数 best_params = gp_minimize(objective, param_space, n_calls=50, random_state=0) # 打印最佳参数和对应的得分 print("Best parameters found: ", best_params.x) print("Best score: ", -best_params.fun)
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

Ai君臣

学会的就要教给人

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值