本人64位windows下安装最新版XGBoost,附操作步骤图

(这是16年的安装方式,现在早就直接pip install xgboost就可以)

最新更新的XGBoost与老版安装方式不再一样,具体安装步骤如下:

 

1、 材料

系统:win7 64位 sp5 (win7、win10亲测都可以)

下载安装cmake:

https://cmake.org/files/v3.7/cmake-3.7.1-win64-x64.msi

下载安装VS2013 sp5

安装git,安装Anaconda,百度就有

 

 

 

2、安装步骤

打开Git Bash,输入指令:

$cd c: 

$git clone–recursive  https://github.com/dmlc/xgboost 

$cd xgboost 

$git submodule init 

$git submodule update 

$mkdir build

$cd build

$cmake ..-G"Visual Studio 12 2013 Win64"

编译完成后,看到如下图显示:

 

说明:注意指定为自己的VS编译器型号,我的是vs2013 win64版本,根据自己的版本选择,包括15 2017,14 2015,12 2013,11 2012,10 2010,9 2008,8 2005。

 

使用VS打开build目录下的xgboost.sln

按下图编译:

 

编译结果如下图:

 

lib目录下多出了libxgboost.dll文件

 

 

将libxgboost.dll 拷贝到python-package\xgboost。

 

检查distutils模块是否安装,进入python后import一下就知道,没装的自己安装,通常都会有的,安装好后进入bash终端:

$cd python-package 

$python setup.py install

完成安装,结果如下图:

 

 

 

此时,在Anaconda的site-packages中出现了xgboost-0.6-py2.7.egg文件夹,如下图:

 

 

 

 

3、 测试导入

进入终端:

>python

>>>import xgboost 

并未出现:ImportError: Nomodule named xgboost,说明安装成功了。

启动Pycharm也可以同样导入XGBoost。

 

 

 

 

 

很抱歉,我无法直接提供片或绘制表。但我可以向您解释 XGBoost(eXtreme Gradient Boosting)的原理。 XGBoost是一种基于梯度提升决策树(Gradient Boosting Decision Tree,GBDT)的机器学习算法。它的主要思想是通过在每一轮迭代中训练一个新的弱分类器(即决策树),并将其添加到集成模型中,从而逐步提升整体模型的性能。 XGBoost的原理可以分为以下几个步骤: 1. 初始化模型:初始时,将整体模型的预测值设置为一个常数,通常是目标变量的平均值。 2. 计算残差:通过将目标变量的真实值与当前模型的预测值相减,得到残差(即预测误差)。 3. 训练决策树:使用残差作为目标变量,训练一个新的决策树模型。决策树的训练过程是通过选择最佳分割点来最小化损失函数(通常采用平方损失)。 4. 更新模型:将新训练的决策树模型与之前的模型相加,得到一个更新后的模型。 5. 迭代训练:重复步骤2至4,直到达到预定的迭代次数或损失函数收敛。 在训练过程中,XGBoost还引入了正则化项和学习率来控制模型的复杂度和收敛速度。此外,XGBoost还可以处理缺失值、支持多种损失函数(如平方损失、逻辑损失等)和自定义评估指标。 通过以上步骤的迭代,XGBoost可以逐渐减小模型的预测误差,提高模型的预测性能。这就是XGBoost的基本原理。
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值