spark入门_2小时入门Spark之MLlib

最近由于一直在用Spark搞数据挖掘,花了些时间系统学习了一下Spark的MLlib机器学习库,它和sklearn有八九分相似,也是Estimator,Transformer,Pipeline那一套,各种fit,transform接口。sklearn有多好学,MLlib就有多好学,甚至MLlib还要更加简单一些,因为MLlib库中支持的功能相对更少一些,并且MLlib基于DataFrame数据比sklearn基于numpy array会更加直观一些。

那学了这个MLlib有啥子用呢?主要有以下三方面用处。

第一是对海量数据特征工程处理。如果有遇到需要对50G以上的数据进行Tf-idf特征提取,缺失值填充,特征筛选,最邻近查找等特征工程任务时,使用Pandas的同学可能要望洋兴叹了,这时候会使用Spark MLlib的同学就会露出迷之微笑。

第二是提供机器学习模型的候选baseline。众所周知,目前工业界应用最主流的机器学习模型是xgboost,lightgbm,以及深度学习那一套。遗憾的是,MLlib原生并不带xgboost和lightgbm,对深度学习的支持也不多。但MLlib提供非常丰富的基础模型诸如决策树,随机森林,梯度提升树,朴素贝叶斯等,这些简单易用的模型可以提供一个基本的baseline。如果生产要求不是非常高的话,baseline也是可以直接拿过来落地成产品的。

第三是为xgboost,深度学习等模型提供超参优化模型评估等支持。

通过引入XGBoost4J-Spark库,Spark上也是可以分布式跑xgboost的。通过引入mmlspark库,Spark上也是可以分布式跑lightgbm的,通过引入TensorflowOnSpark,Spark上也是可以分布式跑TensorFlow的。而MLlib的超参调优和模型评估等功能无疑可以很好地和这些牛逼闪闪的框架很好地协作起来。

以上是一些MLlib常用的使用场景。废话不多说了,让我们出发吧!

Python与算法之美公众号后台回复关键字:"MLlib"获取本文全部源码。

一,MLlib基本介绍

MLlib是Spark的机器学习库,包括以下主要功能。

  • 实用工具:线性代数,统计,数据处理等工具

  • 特征工程:特征提取,特征转换,特征选择

  • 常用算法:分类,回归,聚类,协同过滤,降维

  • 模型优化:模型评估,参数优化。

MLlib库包括两个不同的部分。

spark.mllib 包含基于rdd的机器学习算法API,目前不再更新,在3.0版本后将会丢弃,不建议使用。

spark.ml 包含基于DataFrame的机器学习算法API,可以用来构建机器学习工作流Pipeline,推荐使用。

二,MLlib基本概念

  • DataFrame: MLlib中数据的存储形式,其列可以存储特征向量,标签,以及原始的文本,图像。

  • Transformer:转换器。具有transform方法。通过附加一个或多个列将一个DataFrame转换成另外一个DataFrame。

  • Estimator:估计器。具有fit方法。它接受一个DataFrame数据作为输入后经过训练,产生一个转换器Transformer。

  • Pipeline:流水线。具有setStages方法。顺序将多个Transformer和1个Estimator串联起来,得到一个流水线模型。

三,Pipeline流水线范例

任务描述:用逻辑回归模型预测句子中是否包括”spark“这个单词。

33e22464263c6ea2c35ee7e7f71c1299.png

1,准备数据

e538aa195b1092d270035db6e720dfc5.png

2,构建模型

d654211856967c11ac70c3604f4f1f4d.png

3,训练模型

b212a775985cd4fd88bcce04cb87979e.png

4,使用模型

6d54d32dbd732d97400e67e86310747b.png

5,评估模型

a693071600ecb746ef090dcdf991b6c6.png

6,保存模型

1c3b07144b6d49dbf2db1bfef9d66326.png

四,导入数据

可以使用spark.read导入csv,image,libsvm,txt等格式数据。

a0c835ae60ce9f6f6a2c76297352257d.png

五,特征工程

spark的特征处理功能主要在 spark.ml.feature 模块中,包括以下一些功能。

  • 特征提取:Tf-idf, Word2Vec, CountVectorizer, FeatureHasher

  • 特征转换:OneHotEncoderEstimator, Normalizer, Imputer(缺失值填充), StandardScaler, MinMaxScaler, Tokenizer(构建词典),StopWordsRemover, SQLTransformer, Bucketizer, Interaction(交叉项), Binarizer(二值化), n-gram,……

  • 特征选择:VectorSlicer(向量切片), RFormula, ChiSqSelector(卡方检验)

  • LSH转换:局部敏感哈希广泛用于海量数据中求最邻近,聚类等算法。

1,Word2Vec

Word2Vec可以使用浅层神经网络提取文本中词的相似语义信息。

aea39735033473014475fe4fcc232a3f.png

2,StandardScaler 正态标准化

bbe77d7f1e365a4e20a7bd4eb4fb4d78.png

3,Imputer 缺失值填充

d511b974ccc32aa937b8b682507f21f7.png

4,SQLTransformer

可以使用SQL语法将DataFrame进行转换,等效于注册表的作用。

但它可以用于Pipeline中作为Transformer。

f03456fab30686869b765fd299e4a9db.png

5,ChiSqSelector

当label是离散值时,ChiSqSelector选择器可以根据Chi2检验统计量筛选特征。

14f12e244a731357d9a0b9c7af742df7.png

六,分类模型

Mllib支持常见的机器学习分类模型:逻辑回归,SoftMax回归,决策树,随机森林,梯度提升树,线性支持向量机,朴素贝叶斯,One-Vs-Rest,以及多层感知机模型。这些模型的接口使用方法基本大同小异,下面仅仅列举常用的决策树作为示范。更多范例参见官方文档。

此外,通过导入引入XGBoost4J-Spark库,也可以在Spark上运行xgboost,此处也进行示范。

1,决策树

4d0c57e3b16e7f67ab1bc511255a1c79.png

12974f52b247cf47e645e7e66f3518e9.png

678a290d89dd2d0a4c1021b35ee428c9.png

2,xgboost

spark也可以使用xgboost模型,既可以进行分布式训练,也可以进行分布式预测,支持各种参数设置和earlystopping。

支持模型保存,并且保存后的模型和Python等语言是可以相互调用的。

需要注意的是,输入xgboost的数据格式只能包含两列,features和label。

可以用spark.ml.feature.VectorAssembler将不同特征转换成一个 features向量。

da965bc8494224f372287b91c12da90d.png

c423059d0f88df924b0ec9da7a0ca019.png

18b8dc5ae3772ada70f0b1af9974774d.png

47415d64196148de52d68ed00822f7c4.png

f096528444ccc2bb4d76370b0936d13b.png

9c98bec2e73d2bb0bbaa657390490e75.png

七,回归模型

Mllib支持常见的回归模型,如线性回归,广义线性回归,决策树回归,随机森林回归,梯度提升树回归,生存回归,保序回归。

1,线性回归

ec1121a170dea6c3cbadccc53f8adf3d.png

2,决策树回归

0fa87f9f4fe5f03054bb8267dcde7348.png

b87e1b3721f4879a558fc66156e6b005.png

八,聚类模型

Mllib支持的聚类模型较少,主要有K均值聚类,高斯混合模型GMM,以及二分的K均值,隐含狄利克雷分布LDA模型等。

1,K均值聚类

14af5b7ad2e11493431bad62be0e3276.png

2,高斯混合模型

22c2b474111549d2616140cdc445fda5.png

九,降维模型

Mllib中支持的降维模型只有主成分分析PCA算法。这个模型在spark.ml.feature中,通常作为特征预处理的一种技巧使用。

1,PCA降维模型

685ec192daa088f6ca7808d9375369a2.png

十,模型优化

模型优化一般也称作模型选择(Model selection)或者超参调优(hyperparameter tuning)。

Mllib支持网格搜索方法进行超参调优,相关函数在spark.ml.tunning模块中。

有两种使用网格搜索方法的模式,一种是通过交叉验证(cross-validation)方式进行使用,另外一种是通过留出法(hold-out)方法进行使用。

交叉验证模式使用的是K-fold交叉验证,将数据随机等分划分成K份,每次将一份作为验证集,其余作为训练集,根据K次验证集的平均结果来决定超参选取,计算成本较高,但是结果更加可靠。

而留出法只用将数据随机划分成训练集和验证集,仅根据验证集的单次结果决定超参选取,结果没有交叉验证可靠,但计算成本较低。

如果数据规模较大,一般选择留出法,如果数据规模较小,则应该选择交叉验证模式。

1,交叉验证模式

e92f087b6ca939fe0d166119fc44af68.png

7dcdbcd166b14b2b737964ca1441a7df.png

2,留出法模式

6a535427aaa49d360ee425e287025a24.png

推荐阅读:

30分钟理解Spark的基本原理

3小时Scala入门

1小时入门Spark之RDD编程
2小时入门SparkSQL编程

7个小练习帮你打通SparkCore和SparkSQL编程任督二脉

公众号后台回复关键字:"MLlib"获取本文全部源码。

b5f63771303db301028be184fcea0bf7.png

  • 0
    点赞
  • 5
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值