一、场景:
Flink消费kafka数据,解析json,保存到postgresql数据库
二、依赖:
如果是在IDEA中写代码,需要在pom文件中添加postgresql依赖,其他的一些依赖自行导入。
<dependency>
<groupId>org.postgresql</groupId>
<artifactId>postgresql</artifactId>
<version>42.2.2</version>
</dependency>
三、代码实现
3.1、Flink消费连接kafka,指定消费的IP和Topic
final StreamExecutionEnvironment env = StreamExecutionEnvironment.getExecutionEnvironment();
env.setRuntimeMode(RuntimeExecutionMode.AUTOMATIC);
env.enableCheckpointing(5000);
Properties properties = new Properties();
properties.setProperty("bootstrap.servers", "cdh-01:9092,cdh-02:9092,cdh-03:9092");
properties.setProperty("group.id", "postgresql_test000006");
properties.setProperty("auto.offset.reset", "earliest"