xlearn的优势:
- 1.通用性好,包括主流的算法(lr, fm, ffm 等),用户不用再切换于不同软件之间
- 2.性能好,测试 xLearn 可以比 libfm 快13倍,比 libffm 和 liblinear 快5倍
- 3.易用性和灵活性,xLearn 提供简单的 python 接口,并且集合了机器学习比赛中许多有用的功能
- 4.可扩展性好。xLearn 提供 out-of-core 计算,利用外存计算可以在单机处理 1TB 数据
二、xlearn安装:巨简单
目前xlearn只支持,Linux和Mac,Windows用户可能要等等了。以下操作在Ubuntu系统进行。
2.1安装GCC(或Clang)和CMake:
建议安装GCC,Clang下载文件大,而且安装过程出现问题,便直接安装的GCC。
安装gcc
sudo apt-get install build-essential
测试是否安装成功: gcc --version
出现以下界面代表安装成功:
gcc (Ubuntu 5.4.0-6ubuntu1~16.04.9) 5.4.0 20160609
Copyright (C) 2015 Free Software Foundation, Inc.
安装cmake
我实在不明白为什么有些教程要下载文件,等等骚操作,那么麻烦。一行搞定。
sudo apt-get install cmake
测试是否安装成功: cmake --version
出现以下界面代表安装成功:
cmake version 3.5.1
CMake suite maintained and supported by Kitware (kitware.com/cmake).
2.2 安装xlearn:
sudo pip install xlearn
这个地方注意下,如果安装了Anaconda,确认xlearn是否安装在你所运行的Anaconda的虚拟环境中。找到安装包的位置可以查看下,如果显示安装成功,却不能import xlearn
,八成是这个问题。
三、xlearn实战:
简单实战,每一行都有详细的注释。主要是简单学会使用模型,并没有对特征过多分析。
3.1 快速入门
import xlearn as xl
ffm_model = xl.create_ffm()
# 训练集
ffm_model.setTrain("small_train.txt")
# 设置验证集 ffm_model.setValidate("small_test.txt") # 设置参数 param = {'task':'binary','lr':0.2,'lambda':0.002} # 设置不同的评价指标 # 分类问题:acc(Accuracy);prec(precision);f1(f1 score);auc(AUC score) param1 = {'task':'binary','lr':0.2,'lambda':0.002,'metric':'rmse'} # 回归问题:mae,mape,rmsd(RMSE) param2 = {'task':'binary','lr':0.2,'lambda':0.002, 'metric':'rmse'} # 训练模型 ffm_model.fit(param, "model.out") # 测试集 ffm_model.setTest("small_test.txt") # 输出样本预测概率,范围(-1,1) ffm_model.predict("model.out","output.txt") # 设置预测概率范围为(0,1) ffm_model.setSigmoid() ffm_model.predict("model.out","output.txt") # 转化为二分类(0,1),没有阈值吗??? ffm_model.setSign() ffm_model.predict("model.out","output.txt") # 模型保存为txt格式, ffm_model.setTXTModel("model.txt")
3.2 更进一步:
# 选择不同的机器学习算法
# FM,LR可以使用csv和libsvm格式,FFM应该接受libffm格式
fm_model = xl.create_fm()
lr_model = xl.create_linear()
# 设置交叉验证(Cross Validation)
ffm_model = xl.create_ffm()
ffm_model.setTrain("train.txt")
param = {'task':'binary','lr':0.2,'lambda':0.002,'fold':3} # 默认5-folds,可通过param设置 ffm_model.cv(param) # 设置优化算法:SGD,AdaGrad,Ftrl(Follow-the-Regularized-Leader) param3 = {'task':'binary','lr':0.002,'lambda':0.01,'opt':'ftrl'} # Ftrl的额外参数 param = {'alpha':0.002,'beta':0.8,'lambda_1':0.001,'lambda_2':1.0} # 如何自动进行超参数训练 # 设置Epoch数量 param4 = {'task':'bianry','lr':0.2,'lambda':0.01,'epoch':3} # Early stopping,设置提前停止窗口 param5 = {'task':'binary','lr':0.2,'lambda':0.002,'epoch':10,'stop_window':3} # Lock-Free 训练,可以充分利用多核来加速训练,但是结果具有不确定性,默认开启 ffm_model.disableLockFree() # disable lock-free training # Instance-wise Normalization,对CTR预测问题,非常有效,但是有损性能 ffm_model.disableNorm() # disable Instance-wise Normalization # Quite Training 提高训练速度,不计算评指标,只训练模型 ffm_model.setQuiet()
3.3 与Sklearn相结合
建议利用sklearn接口,众多sklearn的功能都能使用。
# 调用Sklearn的API
import numpy as np
from sklearn.datasets import load_iris from sklearn.model_selection import train_test_split iris_data = load_iris() X = iris_data['data'] y = iris_data['target' == 2] X_train,X_test,y_train, y_test = train_test_split(X,y,test_size=0.3,random_state=0) linear_model = xl.LRModel(task='binary',init=0.1,epoch=10,lr=0.1,reg_lambda=1.0,opt='sgd') linear_model.fit(X_train,y_train,eval_set=[X_test, y_test],is_lock_free=False) y_pred = linear_model.predict(X_test)
版权声明:本文为CSDN博主「linxid」的原创文章,遵循 CC 4.0 BY-SA 版权协议,转载请附上原文出处链接及本声明。
原文链接:https://blog.csdn.net/linxid/article/details/80382569