Spark MLlib Statistics统计

本文介绍了Spark MLlib的统计模块,包括列统计汇总(最大值、最小值、平均值、方差等)、相关系数(Pearson和Spearman)的计算,以及Pearson卡方检验的应用。通过实例展示了如何使用Spark进行这些统计分析。
摘要由CSDN通过智能技术生成

1、Spark MLlib Statistics统计

Spark Mllib 统计模块代码结构如下:

1.1 列统计汇总

计算每列最大值、最小值、平均值、方差值、L1范数、L2范数。

    //读取数据,转换成RDD[Vector]类型

    val data_path = "/home/jb-huangmeiling/sample_stat.txt"

    val data = sc.textFile(data_path).map(_.split("\t")).map(f => f.map(f => f.toDouble))

    val data1 = data.map(f => Vectors.dense(f))   

    //计算每列最大值、最小值、平均值、方差值、L1范数、L2范数

    val stat1 = Statistics.colStats(data1)

    stat1.max

    stat1.min

    stat1.mean

    stat1.variance

    stat1.normL1

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值