使用spark读取es中的数据并进行数据清洗,使用fp-growth算法进行加工

本文介绍了如何利用Spark从Elasticsearch中读取数据,并进行数据清洗。接着详细阐述了如何运用FP-Growth算法对清洗后的数据进行关联规则挖掘,以实现更深入的数据加工分析。
摘要由CSDN通过智能技术生成

最近学了spark,用fg-growth算法进行数据的关联排序


object HelloPFg {
  def main(args: Array[String]) {

    val conf = new SparkConf().setAppName("Spark MLlib Exercise:K-Means Clustering")
    conf.set("es.index.auto.create", "true")
    conf.set("es.nodes", "192.168.100.100")

    val sc = new SparkContext(conf)

    var sqlsc = new SQLContext(sc)
    /**
      * 读取es中的数据,logstash是es中的索引名称,如果需要读取多个索引,则使用逗号将索引隔开即可
      * val esLogs = sc.esRDD("logstash-2016.04.04,logstash-2016.04.05").values
      * 如果需要读取不同的index中的不同的type中的数据,则分别读取,然后使用union将多个rdd合并成一个rdd即可
    val esLogs = sc.esRDD("logstash-2016.04.04/spark").values
    val esLogs1 = sc.esRDD("logstash-2016.04.05/docs").values
    val test=esLogs.union(esLogs1)
      * */
    val esL
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值