Spark2.0操作ES

ES提供了支持包来方便的操作ES。首先添加ES的依赖maven:
       <dependency>
            <groupId>org.elasticsearch</groupId>
            <artifactId>elasticsearch-spark-20_2.11</artifactId>
            <version>6.2.0</version>
            <exclusions>
                <exclusion>
                    <artifactId>log4j-over-slf4j</artifactId>
                    <groupId>org.slf4j</groupId>
                </exclusion>
            </exclusions>            
         </dependency>

然后在Spark程序中设置SparkConf,将ES的属性设置好:

import org.elasticsearch.spark._

 val sparkconf = new SparkConf().setAppName("sevs_spark3")
      .set("spark.driver.userClassPathFirst", "true")
      .set("spark.executor.userClassPathFirst", "true")
      .set("HADOOP_USER_NAME", getProp("hbase.hadoop.username"))
      .set("HADOOP_GROUP_NAME", getProp("hbase.hadoop.groupname"))     
      .set("es.index.auto.create", "true")
      .set("es.nodes", "127.0.0.1")
      .set("es.port", "9200")
      .setMaster("local")

最后通过esRDD来读写ES,非常方便

 def read_es(sc:SparkContext){
    val rdd = sc.esRDD("test/login")
    rdd.foreach(x=>{
      println("######",x._1,x._2 ) 
    })
  }
  
  def save_es(sc:SparkContext){
    sc.parallelize(Seq("abc","def")).map(x=>{
      val map = Map("hostIp" -> x,  "remoteIp" -> x.concat("#"))
      map
    }).saveToEs("snprime_login/login")
  }

 

Spark操作ES就是这么简单,赶快来试试吧。

 

转载于:https://my.oschina.net/u/778683/blog/2986444

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值