学到xgboost库工具,在网上查了许多安装xgboost库的教程,找到一个比较便捷的方法,记录下来以备后用。
xgboost是近年来很受追捧的机器学习算法,由华盛顿大学的陈天奇提出。最近在学习机器学习,所以需要安装这一利器。然而,在网上找了很多安装xgboost的教程,有些方法太复杂,要安装额外的几个软件,有些看着简单但是自己按步骤安装了一遍,进行测试的时候还是没有成功。
最近终于发现了一个超级简单的办法,主要是发现了这个神奇的网址:
https://www.lfd.uci.edu/~gohlke/pythonlibs/点击打开链接
里面包含了许多库的.whl文件。需要快速定位可以在上边的网址后面接着输入 #<package_name>,比如要快速定位到xgboost库,可以输入https://www.lfd.uci.edu/~gohlke/pythonlibs/#xgboost。结果如下图所示:
根据自己系统选择对应的文件。我自己的是win 64位,anaconda3默认的python3.6环境,所以选择的最后一个。下载下来之后把文件保存在一个文件夹中,如 D:\Anaconda3\mywhl。mywhl是在Anaconda3文件夹下自定义的一个文件夹。接下来启动 Anaconda Prompt. 将路径定位到放置.whl文件的目录下。
接下来输入 pip install xgboost-0.6+20171121-cp36-cp36m-win_amd64.whl,后边的一大串是完整的文件名,不要输错哦!!!结果如下:
最后一行显示安装成功了,自己也可以使用命令 conda list 或者 pip list 查看清单里面是否有xgboost库。
最后来进行测试,打开spyder,建立一个.py文件,输入下列测试代码:
- import numpy as np
- import xgboost as xgb
- data = np.random.rand(5,10) # 5 entities, each contains 10 features
- label = np.random.randint(2, size=5) # binary target
- dtrain = xgb.DMatrix( data, label=label)
- dtest = dtrain
- param = {'bst:max_depth':2, 'bst:eta':1, 'silent':1, 'objective':'binary:logistic' }
- param['nthread'] = 4
- param['eval_metric'] = 'auc'
- evallist = [(dtest,'eval'), (dtrain,'train')]
- num_round = 10
- bst = xgb.train( param, dtrain, num_round, evallist )
- bst.dump_model('dump.raw.txt')