flink 写入到es_Flink写入数据到ElasticSearch (ElasticSearch详细使用指南及采坑记录)

本文介绍了如何使用Flink将数据写入ElasticSearch,包括添加依赖、设置配置以及处理失败情况。文章讨论了ElasticsearchSink的基本用法、配置参数、失败重试策略,并提醒读者注意EsSink代码块不能捕获EsRejectedExecutionException以及重试机制依赖于checkpoint。此外,还分享了从实践中学习到的经验。
摘要由CSDN通过智能技术生成

Flink写入数据到ElasticSearch (ElasticSearch详细使用指南及采坑记录)

发布时间:2018-07-19 20:12,

浏览次数:1636

, 标签:

Flink

ElasticSearch

一、ElasticSearchSink介绍

在使用Flink进行数据的处理的时候,一个必要步骤就是需要将计算的结果进行存储或导出,Flink中这个过程称为Sink,官方我们提供了常用的几种Sink

Connector,例如:

* Apache Kafka

* Elasticsearch

* Elasticsearch 2x

* Hadoop FileSystem

* …

这篇就选取其中一个常用的ElasticsearchSink来进行介绍,并讲解一下生产环境中使用时的一些注意点,以及其内部实现机制。

二、使用方式

a、添加pom依赖

org.apache.flink

flink-connector-elasticsearch2_2.10 1.3.1

dependency>

根据自己所用的filnk版本以及es版本对上面的版本号进行调整

b、实现对应代码

DataStream input = ...; Map config = new HashMap<>();

config.put("cluster.name", "my-cluster-name"); //该配置表示批量写入ES时的记录条数 config.put(

"bulk.flush.max.actions&

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值