首先讲一下背景,公司现在要做流式,最后敲定用flink来做(考虑flink在阿里的巨大成功)。我们的数据读取Kafka ,经过处理之后会存储到ES中。现在还处在研究阶段,把一些基本的东西跑通,写这篇博客希望做一个记录 也希望能给刚开始搞flinkd 朋友们一点帮助。
用到的技术:flink on yarn (1.7.0) kafka(1.1.1) es(1.7) maven(3.04) 我用idea编辑器 scala(2.11)语言写的 flink 本地也是可以跑的 没有hadoop集群的小伙伴可以在本地测试
package info
import java.util.Properties
import org.apache.flink.streaming.api.TimeCharacteristic
import org.apache.flink.streaming.api.windowing.time.Time
import org.apache.flink.api.common.restartstrategy.RestartStrategies
import org.apache.flink.api.common.serialization.SimpleStringSchema
import org.apache.flink.api.common.state.StateTtlConfig.TimeCharacteristic
import org.apache.flink.api.java.utils.ParameterTool
import org.apache.flink.streaming.api.scala.StreamExecutionEnvironment
import org.apache.flink.streaming.connectors.elasticsearch.{ElasticsearchSink, ElasticsearchSinkFunc