SparkStreaming写数据到Elasticsearch简单实现

SparkStreaming写数据到Elasticsearch简单实现

一、应用场景


针对实时处理的数据需要及时能够搜索出来时,可以选择elasticsearch来支持这一业务。当然还可以选择其他的内存数据库,如redis。而elasticsearch除了强大的全文索引能力外,还支持分布式存储,可以将其作为分布式计算框架的底座,用于存储热数据或者温数据等。常见的组合方式有elasticsearch与sparkstreaming以及flink进行配合共同完成实时或流式处理的场景。

在本次案例中,我们将演示将商品信息数据通过nc发送,由sparkstreaming通过socket读取实时数据流并对其进行简单处理,最后写入到es中。

二、环境说明


  1. 数据生产工具:nc (本案例安装在虚拟机中)
  2. 数据处理框架:sparkstreaming,版本2.12
  3. 数据存储框架:elasticsearch
  4. 开发工具IDEA
  5. es集群:3台节点 (本案例安装在虚拟机中)
  6. http通讯端口:9200

三、实验步骤


  1. 各种环境搭建,如es、idea等请自行搭建

  2. 启动idea,创建maven项目

  3. 添加依赖至pom.xml中

    <dependencies>
        <dependency>
            <groupId>org.apache.spark</groupId>
            <artifactId>spark-core_2.12</artifactId>
            <version>3.0.0</version>
        </dependency>
        <dependency>
            <groupId>org.apache.spark</groupId>
            <artifactId>spark-streaming_2.12</artifactId>
            <version>3.0.0</version>
        </dependency>
        <dependency>
            <groupId>org.elasticsearch</groupId>
            <artifactId>elasticsearch</artifactId>
            <version>7.8.0</version>
        </dependency>
        <!-- elasticsearch 的客户端 -->
        <dependency>
            <groupId>org.elasticsearch.client</groupId>
            <artifactId>elasticsearch-rest-high-level-client</artifactId>
            <version>7.8.0</version>
        </dependency>
        <!-- elasticsearch 依赖 2.x 的 log4j -->
        <dependency>
            <groupId>org.apache.logging.log4j</groupId>
            <artifactId>log4j-api</artifactId>
            <version>2.8.2</version>
        </dependency>
        <dependency>
            <groupId>org.apache.logging.log4j</groupId>
            <artifactId>log4j-core</artifactId>
            <version>2.8.2</version>
        </dependency>
    </dependencies>
    
  4. 添加scala框架的支持,或者在pom.xml中自行添加

  5. 编写sparkstreaming客户端程序,完成代码如下:

    package com.suben.es.sstream
    
    import org.apache.http.HttpHost
    import org.apache.spark.SparkConf
    import org.apache.spark.storage.StorageLevel
    import org.apache.spark.streaming.dstream.ReceiverInputDStream
    import org.apache.spark.streaming.{Seconds, StreamingContext}
    import org.elasticsearch.action.index.IndexRequest
    import org.elasticsearch.client.{RequestOptions, RestClient, RestHighLevelClient}
    import org.elasticsearch.common.xcontent.XContentType
    
    import java.util.Date
    
    object SparkStreamingESTest {
    
      val INDEX_NAME = "stream"
    
      def main(args: Array[String]): Unit = {
        val sparkConf = new SparkConf().setMaster("local[*]").setAppName("SparkStreamingOperateES")
        val streamingContext = new StreamingContext(sparkConf, Seconds(3))
        // 读取TCP端口数据,即nc发送过来的数据
        val inputDStream: ReceiverInputDStream[String] = streamingContext.socketTextStream("hadoop003", 12345, StorageLevel.MEMORY_ONLY)
        // 对数据进行处理
        inputDStream.foreachRDD(rdd => {
          println(">>>>>>>>>>>>" + new Date())
          rdd.foreach(data => {
            println("==========接收到的数据>>>>>>>>>>>>", data)
            if (data != null && !"".equals(data)) {
              // 将数据写入到elasticsearch索引为shopping中去
              // 0. 处理数据,假如输入数据格式如下:9,小米手机,手机,2008.0,http://www.suben.com/xm.jpg
              val splits = data.split(",")
              // 选择第一个元素作为id
              val id = splits(0)
              // 1. 编写es客户端代码
              val client = new RestHighLevelClient(RestClient.builder(new HttpHost("hadoop002", 9200, "http")))
              // 2. 创建请求对象
              val request = new IndexRequest();
              // 3. 设置索引和id
              request.index(INDEX_NAME).id(id)
              // 4. 将splits数组中的数据转成json字符串
              val productJson =
              s"""
                 | { "id":"${splits(0)}",
                 | "title":"${splits(1)}",
                 | "category":"${splits(2)}",
                 | "price":"${splits(3)}",
                 | "images":"${splits(4)}" }
                 |""".stripMargin;
              println("===productJson===", productJson)
              // 6. 将jsonObject封装到request中
              request.source(productJson, XContentType.JSON)
              // 7. 请求添加文档
              val response = client.index(request, RequestOptions.DEFAULT)
    
              System.out.println("_index:" + response.getIndex());
              System.out.println("_id:" + response.getId());
              System.out.println("_result:" + response.getResult());
    
              client.close()
            }
          })
        })
    
        // 启动程序
        streamingContext.start()
        // 等待执行结果
        streamingContext.awaitTermination()
    
      }
    }
    
    
  6. 启动nc,命令如下:

    nc -l -p 12345
    
  7. 启动sparkstreaming客户端程序

  8. 在nc中添加测试数据,回车,观察es中有无数据被写入

    10,[10]华为手机,手机,3008.0,http://www.suben.com/hw.jpg
    11,[11]华为手机,手机,3008.0,http://www.suben.com/hw.jpg
    12,[12]华为手机,手机,3008.0,http://www.suben.com/hw.jpg
    13,[13]华为手机,手机,3008.0,http://www.suben.com/hw.jpg
    14,[14]华为手机,手机,5008.0,http://www.suben.com/hw.jpg

    在chrome浏览器插件elasticsearch-head中数据被成功写入es中:
    在这里插入图片描述

四、思考


上述实验仅仅实现了简单的将通过nc数据逐条或者多条输入,是手动的方式操作的。假如是真实业务场景,如电商系统一直源源不断地产生数据,如需模拟这种场景,又该如何实现呢?欢迎大家在评论区给我言,我们一起讨论,相互学习吧!

  • 2
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 3
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 3
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

若兰幽竹

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值