java spark 读取 es_Spark整合Elasticsearch-从ES读取数据

本文介绍了如何使用Java Spark从Elasticsearch(ES)集群中读取数据,强调了通过ES的过滤功能在数据源处进行过滤的优势,避免在Spark中消耗资源。提供了具体的代码示例展示如何配置SparkConf,设置ES节点和端口,并使用esRDD方法进行数据读取。同时,提到了在实现过程中需要注意的坑点,包括sc.esRDD方法的来源和Spark版本匹配问题。
摘要由CSDN通过智能技术生成

Spark整合Elasticsearch-从ES读取数据

由于ES集群在拉取数据时可以提供过滤功能,因此在采用ES集群作为spark运算时的数据来源时,

根据过滤条件在拉取的源头就可以过滤了(ES提供过滤),就不必像从hdfs那样必须全部加载进spark的内存根据filter算子过滤,费时费力。

代码:

import org.apache.spark.{SparkConf, SparkContext}

import org.elasticsearch.spark._

object Spark2Elasticsearch {

def main(args: Array[String]): Unit = {

val conf =new SparkConf().setAppName("Spark2ES").setMaster("local[2]")

conf.set("es.nodes","hadoop1,hadoop2,hadoop3")

conf.set("es.port","9200")

conf.set("es.index.auto.create","true")

val sc =new SparkContext(conf)

val query:String =s"""{

"query" : {

"match_all" : {}

},

"filter" : {

"term" : {

"price" : 50.55

}

}

}"""

val rdd = sc.esRDD("store", query)

println(rdd.collect().toBuffer)

}

}

3e46f4cf0db4f5bed4749e0152cb277e.png

运行结果:

70b250c9eff441d75534f70cef88947a.png

采坑点:

那个sc.esRDD方法其实是ES提供的jar包里的一个隐试转换,在import org.elasticsearch.spark._这个包下,

配置mavin依赖时注意spark的配套版本,本文1.6的spark依赖如下:

df11d80e5baad3cc0e6d233d6d170d7e.png

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值