spark写入数据到elasticsearch

6 篇文章 0 订阅

本例中将DataFrame写入ES,之后利用kibana进行统计展示.

import com.hm.util.SparkHelper
import org.apache.spark.sql.{DataFrame, SaveMode, SparkSession}

object Test {
  def main(args: Array[String]): Unit = {
    val spark: SparkSession = SparkHelper.getSparkSession
    val options = Map(
      //如果没有index,则新建
      "es.index.auto.create" -> "true",
      "es.nodes.wan.only" -> "true",
      //安装es的服务器节点
      "es.nodes" -> "192.168.xx.xx1",
      //es的端口
      "es.port" -> "9200"
    )
    
    //读取数据成为DF
    val sourceDF: DataFrame = spark.read.load("output/rs")
    //DF可以直接写入ES
    sourceDF
      .write
      .format("org.elasticsearch.spark.sql")
      .options(options)
      .mode(SaveMode.Append)
      //index为hive_table
      .save("hive_table/docs")
  }
}

登录kibana,

http://node01:5601/

依次点击管理索引管理创建索引模式
在这里插入图片描述
接着定义索引模式,就是把刚才写入的数据创建索index在这里插入图片描述
后续就可以进行各种可视化操作了,不再赘述.

参考

Apache Spark support | Elasticsearch for Apache Hadoop [7.10] | Elastic
https://www.elastic.co/guide/en/elasticsearch/hadoop/current/spark.html#spark

Spark读写ES - upupfeng - 博客园

  • 0
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值