linux xlearn安装

 

 xlearn的优势:
  • 1.通用性好,包括主流的算法(lr, fm, ffm 等),用户不用再切换于不同软件之间
  • 2.性能好,测试 xLearn 可以比 libfm 快13倍,比 libffm 和 liblinear 快5倍
  • 3.易用性和灵活性,xLearn 提供简单的 python 接口,并且集合了机器学习比赛中许多有用的功能
  • 4.可扩展性好。xLearn 提供 out-of-core 计算,利用外存计算可以在单机处理 1TB 数据
    image.png

二、xlearn安装:巨简单

目前xlearn只支持,Linux和Mac,Windows用户可能要等等了。以下操作在Ubuntu系统进行。

2.1安装GCC(或Clang)和CMake:

建议安装GCC,Clang下载文件大,而且安装过程出现问题,便直接安装的GCC。

安装gcc

sudo apt-get install build-essential

测试是否安装成功:
gcc --version

出现以下界面代表安装成功:

gcc (Ubuntu 5.4.0-6ubuntu1~16.04.9) 5.4.0 20160609
Copyright (C) 2015 Free Software Foundation, Inc.

安装cmake

我实在不明白为什么有些教程要下载文件,等等骚操作,那么麻烦。一行搞定。

sudo apt-get install cmake

测试是否安装成功:
cmake --version

出现以下界面代表安装成功:

cmake version 3.5.1
CMake suite maintained and supported by Kitware (kitware.com/cmake).

2.2 安装xlearn:

sudo pip install xlearn

这个地方注意下,如果安装了Anaconda,确认xlearn是否安装在你所运行的Anaconda的虚拟环境中。找到安装包的位置可以查看下,如果显示安装成功,却不能import xlearn,八成是这个问题。

三、xlearn实战:

简单实战,每一行都有详细的注释。主要是简单学会使用模型,并没有对特征过多分析。

3.1 快速入门

import xlearn as xl
ffm_model = xl.create_ffm()
# 训练集
ffm_model.setTrain("small_train.txt")
# 设置验证集 ffm_model.setValidate("small_test.txt") # 设置参数 param = {'task':'binary','lr':0.2,'lambda':0.002} # 设置不同的评价指标 # 分类问题:acc(Accuracy);prec(precision);f1(f1 score);auc(AUC score) param1 = {'task':'binary','lr':0.2,'lambda':0.002,'metric':'rmse'} # 回归问题:mae,mape,rmsd(RMSE) param2 = {'task':'binary','lr':0.2,'lambda':0.002, 'metric':'rmse'} # 训练模型 ffm_model.fit(param, "model.out") # 测试集 ffm_model.setTest("small_test.txt") # 输出样本预测概率,范围(-1,1) ffm_model.predict("model.out","output.txt") # 设置预测概率范围为(0,1) ffm_model.setSigmoid() ffm_model.predict("model.out","output.txt") # 转化为二分类(0,1),没有阈值吗??? ffm_model.setSign() ffm_model.predict("model.out","output.txt") # 模型保存为txt格式, ffm_model.setTXTModel("model.txt")
 

3.2 更进一步:

# 选择不同的机器学习算法
# FM,LR可以使用csv和libsvm格式,FFM应该接受libffm格式
fm_model = xl.create_fm()
lr_model = xl.create_linear()

# 设置交叉验证(Cross Validation)
ffm_model = xl.create_ffm()
ffm_model.setTrain("train.txt")
param = {'task':'binary','lr':0.2,'lambda':0.002,'fold':3} # 默认5-folds,可通过param设置 ffm_model.cv(param) # 设置优化算法:SGD,AdaGrad,Ftrl(Follow-the-Regularized-Leader) param3 = {'task':'binary','lr':0.002,'lambda':0.01,'opt':'ftrl'} # Ftrl的额外参数 param = {'alpha':0.002,'beta':0.8,'lambda_1':0.001,'lambda_2':1.0} # 如何自动进行超参数训练 # 设置Epoch数量 param4 = {'task':'bianry','lr':0.2,'lambda':0.01,'epoch':3} # Early stopping,设置提前停止窗口 param5 = {'task':'binary','lr':0.2,'lambda':0.002,'epoch':10,'stop_window':3} # Lock-Free 训练,可以充分利用多核来加速训练,但是结果具有不确定性,默认开启 ffm_model.disableLockFree() # disable lock-free training # Instance-wise Normalization,对CTR预测问题,非常有效,但是有损性能 ffm_model.disableNorm() # disable Instance-wise Normalization # Quite Training 提高训练速度,不计算评指标,只训练模型 ffm_model.setQuiet()
 

3.3 与Sklearn相结合

建议利用sklearn接口,众多sklearn的功能都能使用。

# 调用Sklearn的API
import numpy as np
from sklearn.datasets import load_iris from sklearn.model_selection import train_test_split iris_data = load_iris() X = iris_data['data'] y = iris_data['target' == 2] X_train,X_test,y_train, y_test = train_test_split(X,y,test_size=0.3,random_state=0) linear_model = xl.LRModel(task='binary',init=0.1,epoch=10,lr=0.1,reg_lambda=1.0,opt='sgd') linear_model.fit(X_train,y_train,eval_set=[X_test, y_test],is_lock_free=False) y_pred = linear_model.predict(X_test)



版权声明:本文为CSDN博主「linxid」的原创文章,遵循 CC 4.0 BY-SA 版权协议,转载请附上原文出处链接及本声明。
原文链接:https://blog.csdn.net/linxid/article/details/80382569

转载于:https://www.cnblogs.com/lvdongjie/p/11570992.html

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值