Flink 入门实战之Sink elasticSearch7

  • 读取Kafka数据
  • 转化为样例类
  • sink es
package com.skin

import java.util.Properties

import org.apache.flink.api.common.functions.RuntimeContext
import org.apache.flink.api.common.serialization.SimpleStringSchema
import org.apache.flink.streaming.api.scala._
import org.apache.flink.streaming.connectors.elasticsearch.{ElasticsearchSinkFunction, RequestIndexer}
import org.apache.flink.streaming.connectors.elasticsearch7.ElasticsearchSink
import org.apache.flink.streaming.connectors.kafka.FlinkKafkaConsumer
import org.apache.http.HttpHost
import org.elasticsearch.action.index.IndexRequest
import org.elasticsearch.client.Requests
object SinkES {
  //用户信息样例类
  case class User(id: String, name: String, sex:String, age:Int, ts:Long)
  def main(args: Array[String]): Unit = {
    // 1、获取流式环境变量
    val env = StreamExecutionEnvironment.getExecutionEnvironment
    // 2、从kafka读取数据
    val properties = new Properties()
    properties.setProperty("bootstrap.servers", "jeff200:9092")
    val kfkConsumer = new FlinkKafkaConsumer[String](
      "test1",
      new SimpleStringSchema(),
      properties
    )
    //从头开始读取
    kfkConsumer.setStartFromEarliest()
    val dataStream = env.addSource(kfkConsumer)
      .map(data=>{
        val arr = data.split(",")
        User(arr(0), arr(1), arr(2), arr(3).toInt, arr(4).toLong)
      })
    // 3、sink es
    val httpHosts = new java.util.ArrayList[HttpHost]
    httpHosts.add(new HttpHost("jeff200", 9200, "http"))
    val esSinkBuilder = new ElasticsearchSink.Builder[User](
      httpHosts,
      new ElasticsearchSinkFunction[User] {
        def process(element: User, ctx: RuntimeContext, indexer: RequestIndexer) {
          val json = new java.util.HashMap[String, Any]
          json.put("uid", element.id)
          json.put("name", element.name)
          val rqst: IndexRequest = Requests.indexRequest
            .index("user-index")
            .source(json)
          indexer.add(rqst)
        }
      }
    )
    esSinkBuilder.setBulkFlushMaxActions(1)
    dataStream.addSink(esSinkBuilder.build)
    // 4、执行任务
    env.execute("SinkES Job")
  }
}
  • 核心依赖
<!-- es connector -->
        <dependency>
            <groupId>org.apache.flink</groupId>
            <artifactId>flink-connector-elasticsearch7_2.11</artifactId>
            <version>${flink.version}</version>
            <scope>${scope}</scope>
        </dependency>
        <!-- 可选,为了解决生产环境日志冲突 -->
        <dependency>
            <groupId>commons-logging</groupId>
            <artifactId>commons-logging</artifactId>
            <version>1.2</version>
        </dependency>
  • 注意

  • 由于es依赖多,还有日志、http版本冲突的问题,生产环境需要耐心引入jar包,如下图
    在这里插入图片描述
    在这里插入图片描述

  • 运行结果

GET user-index/_search
{
  "query": {
    "match_all": {}
  }
}
//返回
{
  "took" : 14,
  "timed_out" : false,
  "_shards" : {
    "total" : 1,
    "successful" : 1,
    "skipped" : 0,
    "failed" : 0
  },
  "hits" : {
    "total" : {
      "value" : 3,
      "relation" : "eq"
    },
    "max_score" : 1.0,
    "hits" : [
      {
        "_index" : "user-index",
        "_type" : "_doc",
        "_id" : "tA_5eHYBkydVxCEiuGOp",
        "_score" : 1.0,
        "_source" : {
          "uid" : "1",
          "name" : "男"
        }
      },
      {
        "_index" : "user-index",
        "_type" : "_doc",
        "_id" : "tQ_5eHYBkydVxCEiuWNc",
        "_score" : 1.0,
        "_source" : {
          "uid" : "2",
          "name" : "女"
        }
      },
      {
        "_index" : "user-index",
        "_type" : "_doc",
        "_id" : "tg_5eHYBkydVxCEiuWOD",
        "_score" : 1.0,
        "_source" : {
          "uid" : "3",
          "name" : "女"
        }
      }
    ]
  }
}
  • 2
    点赞
  • 9
    收藏
    觉得还不错? 一键收藏
  • 2
    评论
FlinkElasticsearch Sink 提供了默认的错误处理机制,即在出现错误时将数据写入到一个错误数据集中,并记录错误信息。但是,有时候我们需要自定义错误处理逻辑,例如将错误数据发送到另一个数据源或者通过邮件通知管理员等。下面是一个自定义错误处理的示例: ``` public static class CustomElasticsearchSinkFunction<T> extends ElasticsearchSinkFunction<T> { private static final long serialVersionUID = 1L; @Override public void process(T element, RuntimeContext ctx, RequestIndexer indexer) { try { indexer.add(createIndexRequest(element)); } catch (Exception e) { handleException(element, e); } } private void handleException(T element, Exception e) { // 自定义错误处理逻辑 // 例如:将错误数据发送到另一个数据源或者通过邮件通知管理员等 } } ``` 上面的示例中,我们继承了 ElasticsearchSinkFunction 并重写了 process 方法,在方法中捕获 ElasticsearchSinkFunction 默认的异常,并通过 handleException 方法自定义错误处理逻辑。在 handleException 方法中,我们可以根据实际情况进行自定义错误处理,例如将错误数据发送到另一个数据源或者通过邮件通知管理员等。 最后,在 Flink 作业中使用自定义的 ElasticsearchSinkFunction: ``` DataStream<T> stream = ...; stream.addSink(new ElasticsearchSink.Builder<T>( httpHosts, new CustomElasticsearchSinkFunction<T>() ).build()); ``` 在上面的示例中,我们将自定义的 ElasticsearchSinkFunction 传递给 ElasticsearchSink.Builder 的构造函数,并将构造函数的返回值作为 Flink 数据流的 Sink。这样,当数据写入 Elasticsearch 时出现错误时,就会执行我们自定义的错误处理逻辑。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 2
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值