第 26 节 Flink Kafka-Connector详解

上篇:第 25 节 Flink 并行度详解(Parallel)


1、Kafka-connector

  1. Kafka中的partition机制和Flink的并行度机制深度结合
  2. Kafka可以作为Flink的source和sink
  3. 任务失败,通过设置kafka的offset来恢复应用
Kafka Consumer消费策略设置

在这里插入图片描述


2、Kafka Consumer的容错

  1. 当checkpoint机制开启的时候,Kafka Consumer会定期把kafka的offset信息还有其他operator的状态信息一块保存起来。当job失败重启的时候,Flink会从最近一次的checkpoint中进行恢复数据,重新消费kafka中的数据。
  2. 为了能够使用支持容错的kafka Consumer,需要开启checkpoint
    env.enableCheckpointing(5000); // 每5s checkpoint一次
动态加载Topic

在这里插入图片描述


3、Kafka Consumers Offset 自动提交

在这里插入图片描述

Kafka Producer

在这里插入图片描述


4、Kafka Producer的容错-Kafka 0.9 and 0.10

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述


5、Flink 生产环境主要配置

生产环境检查清单

在这里插入图片描述

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值