05-Flink 高级API开发2(仅供学习)

第一部分:Flink State 状态

​ Apache Flink作为一个计算框架,提供了有状态的计算,封装了一些底层的实现,比如状态的高效存储、Checkpoint和Savepoint持久化备份机制、计算资源扩缩容等问题。因为Flink接管了这些问题,开发者只需调用Flink API,这样可以更加专注于业务逻辑

01-Flink State之状态及存储结构


什么是状态:流式计算的数据往往是转瞬即逝, 真实业务场景不可能说所有的数据都是进来之后就走掉,没有任何东西留下来,那么留下来的东西其实就是称之为state,中文可以翻译成状态

在这里插入图片描述

​ 在上面这个图中,所有的原始数据进入用户代码之后再输出到下游,如果中间涉及到 state 的读写,这些状态会存储在本地的 state backend(可以对标成嵌入式本地 kv 存储)当中

**抛出疑问1:**什么是状态?

​ [在Flink中,可以这样理解State:某task/operator在某时刻的一个中间结果。]

在这里插入图片描述

**抛出疑问2:**为什么流式计算中需要State状态呢?

  1. 与批计算相比,State是流计算特有的,批计算没有failover机制,要么成功,要么重新计算。
  2. 流计算在大多数场景下是增量计算,数据逐条处理(大多数场景),每次计算是在上一次计算结果之上进行处理的,这样的机制势必要[将上一次的计算结果进行存储(生产模式要持久化)];
  3. 另外由于机器、网络、脏数据等原因导致的程序错误,在重启job时候需要从成功的检查点(checkpoint)进行state的恢复。增量计算,Failover这些机制都需要state的支撑。

抛出疑问3:状态State存储在哪里呢?

​ 状态数据可以维系在[本地存储]中,这里的存储可以是 [Flink 的堆内存或者堆外内存],也可以借助第三方的存储介质,例如:Flink中已经实现的RocksDB,当然用户也可以自己实现相应的缓存系统去存储状态信息,以完成更加复杂的计算逻辑。

​ 状态计算其实就是需要考虑历史数据,而历史数据需要搞个地方存储起来。Flink为了方便不同分类的State的存储和管理,提供以下保存State的数据结构。

在这里插入图片描述

  • ValueState<T>:类型为T的[单值]状态

    • 保存一个可以更新和检索的值(每个值都对应到当前的输入数据的key,因此算子接收到的每个key都可能对应一个值)。
    • 这个值可以通过**update(T)进行更新,通过T value()**进行检索。

    在这里插入图片描述

  • ListState<T>:key上的状态值为一个[列表]

    • 保存一个元素的列表,可以往这个列表中追加数据,并在当前的列表上进行检索。
    • 可以通过**add(T)或者addAll(List)进行添加元素,通过Iterable get()**获得整个列表。
    • 还可以通过**update(List)**覆盖当前的列表。
    • 如统计按用户id统计用户经常登录的IP

在这里插入图片描述

  • MapState<UK,UV>:即状态值为一个[map]
    • 维护了一个映射列表,可以添加键值对到状态中,也可以获得反映当前所有映射的迭代器。
    • 使用**put(UK,UV)或者putAll(Map<UK,UV>)**添加映射。
    • 使用**get(UK)**检索特定key。
    • 使用**entries(),keys()和values()**分别检索映射、键和值的可迭代视图

在这里插入图片描述

  • Broadcast State:具有Broadcast流的特殊属性
    • 类比批处理中广播变量:将小表数据广播到TaskManager内存,被Slot中运行Task任务使用
    • 一种小数据状态广播向其它流的形式,从而避免大数据流量的传输;
    • 在这里,其它流是对广播状态只有只读操作的允许,因为不同任务间没有跨任务的信息交流。
    • 一旦有运行实例对于广播状态数据进行更新了,就会造成状态不一致现象。

在这里插入图片描述

  • ReducingState<T>
    • 保存一个单值,表示添加到状态的所有值的聚合。
    • 这种状态通过用户传入的reduceFunction,每次调用add方法添加值的时候,会调用reduceFunction,最后合并到一个单一的状态值。
    • AggregatingState<IN,OUT>:保留一个单值,表示添加到状态的所有值的聚合。和ReducingState相反的是,聚合类型可能与添加到状态的元素的类型不同。
    • FoldingState<T,ACC>:保留一个单值,表示添加到状态的所有值的聚合。与ReducingState相反,聚合类型可能与添加到状态的元素类型不同。

02-Flink State之状态分类


在Flink中,按照基本类型划分State:Keyed State 和 Operator State

在这里插入图片描述

https://nightlies.apache.org/flink/flink-docs-release-1.13/docs/dev/datastream/fault-tolerance/state/

在这里插入图片描述

1)、[Keyed State]:键控状态

  • 和Key有关的状态类型,KeyedStream流上的每一个key,都对应一个state
  • 只能应用于 KeyedStream 的函数与操作中;
  • 存储数据结构:ValueState、ListState、MapState、ReducingState和AggregatingState等等

[基于KeyedStream上的状态,是跟特定的key绑定的,对KeyedStream流上的每一个key,都对应一个state。]

在这里插入图片描述

2)、[Operator State]:算子状态

  • 又称为 non-keyed state,每一个 operator state 都仅与一个 operator 的实例(1个SubTask任务)绑定;
  • 可以用在所有算子上,每个算子子任务或者说每个算子实例共享一个状态,流入这个算子子任务的数据可以访问和更新这个状态。
  • 常见的 operator state 是 数据源source state,例如记录当前 source 的 offset;
  • 存储数据结构:ListState或BroadcastState等等

在这里插入图片描述

两种不同类型状态:Keyed State与Operator State比较如下:

在这里插入图片描述

[OperatorState算子状态属于每个实例存储1个State值,但是KeyedState键控状态属于每个Key存储1个状态值]

在这里插入图片描述

Flink中State状态划分,按照是否被管理划分:

  • 1、Managered State 管理状态,状态数据被Flink程序管理
    • 比如:ValueState、ListState、MapState等
  • 2、Raw State 原始状态,由用户自己管理状态
    • 存储数据结构:byte[] ,相对来说很麻烦

03-Flink State之KeyedState 案例


KeyedState是根据输入数据流中定义的键(key)来维护和访问的状态。

  • Flink 为每个 key 维护一个状态实例,并将具有相同键的所有数据,都分区到同一个算子任务中,这个任务会维护和处理这个 key 对应的状态;
  • 当任务处理一条数据时,它会自动将状态的访问范围限定为当前数据的 key。

在这里插入图片描述

词频统计WordCount的 sum 使用的StreamGroupedReduce类为例,在代码中使用 keyed state:

在这里插入图片描述

在这里插入图片描述

案例需求:使用KeyedState中的ValueState获取数据中的最大值(实际中直接使用max即可)。

DataStreamSource<Tuple3<String, String, Long>> tupleStream = env.fromElements(
    Tuple3.of("上海", "普陀区", 488L), Tuple3.of("上海", "徐汇区", 212L),
    Tuple3.of("北京", "西城区", 823L), Tuple3.of("北京", "海淀区", 234L),
    Tuple3.of("上海", "杨浦区", 888L), Tuple3.of("上海", "浦东新区", 666L),
    Tuple3.of("北京", "东城区", 323L), Tuple3.of("上海", "黄浦区", 111L)
);

使用KeyedState存储每个Key的最大值,依据案例需求,分析思路如下:

在这里插入图片描述

用户自己管理KeyedState,存储Key的状态值,步骤如下:

// step1、定义状态变量,存储每个单词Key的词频
private ValueState<Long> valueState = null ;

// step2、初始化状态变量,通过状态描述符
valueState = getRuntimeContext().getState(
    new ValueStateDescriptor<Long>("maxState", Long.class)
);

// step3、对Key相同新数据处理时,从状态中获取Key以前词频
Long historyValue = valueState.value();

// step4、数据处理并输出后,更新状态中的值
valueState.update(currentValue);

编写代码,基于KeyedState状态实现获取最大值max函数功能,具体如下:

package cn.itqzd.flink.state;

import org.apache.flink.api.common.functions.RichMapFunction;
import org.apache.flink.api.common.state.ValueState;
import org.apache.flink.api.common.state.ValueStateDescriptor;
import org.apache.flink.api.java.tuple.Tuple3;
import org.apache.flink.configuration.Configuration;
import org.apache.flink.streaming.api.datastream.DataStreamSource;
import org.apache.flink.streaming.api.datastream.SingleOutputStreamOperator;
import org.apache.flink.streaming.api.environment.StreamExecutionEnvironment;

public class StreamKeyedStateDemo {

	public static void main(String[] args) throws Exception {
		// 1. 执行环境-env
		StreamExecutionEnvironment env = StreamExecutionEnvironment.getExecutionEnvironment();
		env.setParallelism(1) ;

		// 2. 数据源-source
		DataStreamSource<Tuple3<String, String, Long>> tupleStream = env.fromElements(
			Tuple3.of("上海", "普陀区", 488L),
			Tuple3.of("上海", "徐汇区", 212L),
			Tuple3.of("北京", "西城区", 823L),
			Tuple3.of("北京", "海淀区", 234L),
			Tuple3.of("上海", "杨浦区", 888L),
			Tuple3.of("上海", "浦东新区", 666L),
			Tuple3.of("北京", "东城区", 323L),
			Tuple3.of("上海", "黄浦区", 111L)
		);

		// 3. 数据转换-transformation
		// todo: 使用DataStream转换函数max获取每个省份最大值
		SingleOutputStreamOperator<Tuple3<String, String, Long>> maxStream = tupleStream.keyBy(tuple -> tuple.f0).max(2);
		// maxStream.printToErr();
		/*
			(上海,普陀区,488)
			(上海,普陀区,488)
			(北京,西城区,823)
			(北京,西城区,823)
			(上海,普陀区,888)
			(上海,普陀区,888)
			(北京,西城区,823)
			(上海,普陀区,888)
		 */

		// todo: 自定义状态,实现max算子获取最大值,此处KeyedState定义
		SingleOutputStreamOperator<String> statStream = tupleStream
			// 指定城市字段进行分组
			.keyBy(tuple -> tuple.f0)
			// 处理流中每条数据
			.map(new RichMapFunction<Tuple3<String, String, Long>, String>() {

				// todo: 第1步、定义变量,存储每个Key对应值,
                // 所有状态State实例化都是RuntimeContext实例化
				private ValueState<Long> maxState = null ;

				// 处理流中每条数据之前,初始化准备工作
				@Override
				public void open(Configuration parameters) throws Exception {
					// todo: 第2步、初始化状态,开始默认值null
					maxState = getRuntimeContext().getState(
						new ValueStateDescriptor<Long>("maxState", Long.class)
					);
				}

				@Override
				public String map(Tuple3<String, String, Long> value) throws Exception {
					// 获取流中数据对应值
					Long currentValue = value.f2;

					// todo: step3、从状态中获取存储key以前值
					Long historyValue = maxState.value();

					// 如果数据为key分组中第一条数据;没有状态,值为null
					if(null == historyValue ||historyValue < currentValue){
						// todo: step4、更新状态值
						maxState.update(currentValue);
					}

					// 返回状态的最大值
					return value.f0 + " -> " + maxState.value();
				}
			});
		
		// 4. 数据终端-sink
		statStream.printToErr();

		// 5. 触发执行-execute
		env.execute("StreamKeyedStateDemo");
	}

}  

​ KeyedState键控状态,当用户定义State存储Key值以后,Job运行时,自动对State状态值进行Checkpoint和自动恢复操作,无需用户干预。

04-Flink State之State TTL生命周期


Flink State Time-To-Live:状态的存活时间

  • 在开发Flink应用时,对于许多有状态流应用程序的一个常见要求是自动清理应用程序状态,以有效管理状态大小。
  • 从 Flink 1.6 版本开始,社区为状态引入了TTL(time-to-live,生存时间)机制,支持Keyed State 的自动过期,有效解决了状态数据在无干预情况下无限增长导致 OOM 的问题。

[状态的清理并不是即时的,而是使用了一种 Lazy 的算法来实现,从而减少状态清理对性能的影响。]

https://nightlies.apache.org/flink/flink-docs-release-1.13/docs/dev/datastream/fault-tolerance/state/#state-time-to-live-ttl

创建State实例对象时,可以设置状态的TTL,如下代码所示:

在这里插入图片描述

  1. TTL:表示状态的过期时间:一旦设置了 TTL,那么如果上次访问的时间戳 + TTL 超过了当前时间,则表明状态过期了。
  2. UpdateType:表示状态时间戳的更新的时机
    • 如果设置为 Disabled,则表明不更新时间戳;
    • 如果设置为 OnCreateAndWrite,则表明当状态创建或每次写入时都会更新时间戳;
    • 如果设置为 OnReadAndWrite,则除了在状态创建和写入时更新时间戳外,读取也会更新状态时间戳。
  3. StateVisibility:表示对已过期但还未被清理掉的状态如何处理
    • 如果设置为 ReturnExpiredIfNotCleanedUp,那么即使这个状态的时间戳表明它已经过期了,但是只要还未被真正清理掉,就会被返回给调用方;
    • 如果设置为 NeverReturnExpired,那么一旦这个状态过期了,那么永远不会被返回给调用方,只会返回空状态,避免了过期状态带来的干扰。
  4. **TimeCharacteristic 以及 TtlTimeCharacteristic:**表示 State TTL 功能所适用的时间模式
  5. CleanupStrategies:表示过期对象的清理策略
    • 当设置为 FULL_STATE_SCAN_SNAPSHOT 时,对应的是 EmptyCleanupStrategy 类,表示对过期状态不做主动清理,当执行完整快照(Snapshot / Checkpoint)时,会生成一个较小的状态文件,但本地状态并不会减小。
    • INCREMENTAL_CLEANUPROCKSDB_COMPACTION_FILTER,实现增量清理,Flink 可以被配置为每读取若干条记录就执行一次清理操作,而且可以指定每次要清理多少条失效记录;

[本质上来讲,State TTL 功能给每个 Flink 的 Keyed 状态增加了一个“时间戳”,而 Flink 在状态创建、写入或读取(可选)时更新这个时间戳,并且判断状态是否过期。如果状态过期,还会根据可见性参数,来决定是否返回已过期但还未清理的状态等等。]

// todo: step1. 定义状态,存储每个Key状态值
private ValueState<Long> maxState = null ;
@Override
public void open(Configuration parameters) throws Exception {
	// todo: step2. 初始化状态,必须在open方法,使用RuntimeContext实例化
	// 2-1. 创建状态描述符
	ValueStateDescriptor<Long> stateDescriptor = new ValueStateDescriptor<>(
			"maxState", Long.class
	);
	// 2-2. 设置状态ttl
	StateTtlConfig ttlConfig = StateTtlConfig
		.newBuilder(Time.days(1))
		.setUpdateType(StateTtlConfig.UpdateType.OnCreateAndWrite)
		.setStateVisibility(StateTtlConfig.StateVisibility.NeverReturnExpired)
		.build();
	stateDescriptor.enableTimeToLive(ttlConfig);

	this.maxState = getRuntimeContext().getState(stateDescriptor);
}

第二部分:Flink Checkpoint 检查点

# RDD Checkpoint:
	将RDD数据保存到可靠文件系统,比如HDFS

# Flink Checkpoint:
	将数据(状态State)保存到可靠文件系统,比如HDFS
		状态数据:某一时刻状态快照

05-Flink Checkpoint之State与Checkpoint


​ 什么是Checkpoint?也就是所谓的检查点,是用来故障恢复的一种机制。Spark也有Checkpoint,Flink与Spark一样,都是用Checkpoint来存储某一时间或者某一段时间的快照(snapshot),用于将任务恢复到指定的状态。

在这里插入图片描述

状态State与检查点Checkpoint之间关系:Checkpoint将某个时刻应用状态State进行快照Snapshot并保存Save

  • 1)、State:存储的是某一个Operator的运行的状态/历史值,是维护在内存Memory中。

在这里插入图片描述

  • 2)、Checkpoint:某一时刻,Flink中所有Operator当前State的全局快照,一般存在磁盘上

在这里插入图片描述

​ Flink的Checkpoint的核心算法叫做Chandy-Lamport,是一种分布式快照(Distributed Snapshot)算法,应用到流式系统中就是确定一个 Global 的 Snapshot,错误处理的时候各个节点根据上一次的 Global Snapshot 来恢复。

​ Chandy-Lamport 算法:https://zhuanlan.zhihu.com/p/53482103

在这里插入图片描述

06-Flink Checkpoint之执行流程


​ Checkpoint是Flink实现容错机制最核心的功能,根据配置[周期性地基于Stream中各个Operator/task的状态State来生成快照,从而将这些状态数据定期持久化存储下来,当Flink程序一旦意外崩溃时,重新运行程序时可以有选择地从这些快照进行恢复,从而修正因为故障带来的程序数据异常]。

​ Checkpoint实现的核心就是barrier(栅栏或屏障),Flink通过在数据集上间隔性的生成屏障barrier,并通过barrier将某段时间内的状态State数据保存到Checkpoint中(先快照,再保存)。

在这里插入图片描述

下图展示Checkpoint时整体流程,简易版本:

在这里插入图片描述

  1. Flink的JobManager创建CheckpointCoordinator
  2. Coordinator向所有的SourceOperator发送Barrier栅栏(理解为执行Checkpoint的信号);
  3. SourceOperator接收到Barrier之后,暂停当前的操作(暂停的时间很短,因为后续的写快照是异步的),并制作State快照, 然后将自己的快照保存到指定的介质中(如HDFS), 一切 ok之后向Coordinator汇报并将Barrier发送给下游的其他Operator;
  4. 其他的如TransformationOperator接收到Barrier,重复第3步,最后将Barrier发送给Sink;
  5. Sink接收到Barrier之后重复第3步;
  6. Coordinator接收到所有的Operator的执行ok的汇报结果,认为本次快照执行成功;

在这里插入图片描述

栅栏对齐:下游subTask必须接收到上游的所有SubTask发送Barrier栅栏信号,才开始进行Checkpoint操作。

在这里插入图片描述

07-Flink Checkpoint之StateBackend


# StateBackend(状态后端):
	1、State状态存储地方: 内存Memory
	
	2、Checkpoint检查点存储地方:Fs文件系统或Memory

在这里插入图片描述

Flink 1.13之前状态后端存储,三种方式:Memory(内存)、Fs(文件系统)和RocksDB(嵌入式数据库)

在这里插入图片描述

​ Checkpoint其实就是Flink中某一时刻,所有的Operator的全局快照,那么快照应该要有一个地方进行存储,而这个存储的地方叫做状态后端(StateBackend)。

在这里插入图片描述

  • 1)、MemoryStateBackend
    • State存储:TaskManager内存中
    • Checkpoint存储:JobManager内存中

[推荐使用的场景为:本地测试、几乎无状态的作业,比如 ETL、JobManager 不容易挂,或挂掉影响不大的情况。不推荐在生产场景使用。]

在这里插入图片描述

  • 2)、FsStateBackend
    • State存储:TaskManager内存
    • Checkpoint存储:可靠外部存储文件系统,本地测试可以为LocalFS,测试生产HDFS

[推荐使用的场景为:常规使用状态的作业,例如分钟级窗口聚合或 join、需要开启HA的作业]

在这里插入图片描述

当Checkpoint时存储到文件系统时,设置格式

在这里插入图片描述

  • 3)、RocksDBStateBackend
    • RocksDB 是一个 嵌入式本地key/value 内存数据库,和其他的 key/value 一样,先将状态放到内存中,如果内存快满时,则写入到磁盘中。类似Redis内存数据库。
    • State存储:TaskManager内存数据库(RocksDB
    • Checkpoint存储:外部文件系统,比如HDFS可靠文件系统中

[推荐使用的场景为:超大状态的作业,例如天级窗口聚合、需要开启 HA 的作业、最好是对状态读写性能要求不高的作业。]

在这里插入图片描述

​ 在Flink 1.13之前版本,状态State存储和Checkpoint检查点两个功能是混在一起的,即把状态存储和检查点的创建概念笼统的混在一起,导致初学者对此部分感觉很混乱,很难理解。

在这里插入图片描述

Flink 1.13 中将状态State检查点Checkpoint两者区分开来。

  • State Backend 的概念变窄,只描述状态访问和存储;
  • Checkpoint storage,描述的是 Checkpoint 行为,如 Checkpoint 数据是发回给 JM 内存还是上传到远程。

在这里插入图片描述

​ Flink 1.13 中State和Checkpoint两个概念被拆开,[当前不仅需要指定 State Backend ,还需要指定 Checkpoint Storage,以下就是新老接口的对应关系:]

在这里插入图片描述

​ 从Flink 1.13版本开始,社区重新设计了其公共状态后端类,以帮助用户更好地理解本地状态存储和检查点存储的分离。[此时StateBackend后端,分为2种情况:]

https://nightlies.apache.org/flink/flink-docs-release-1.13/docs/ops/state/state_backends/#available-state-backends

在这里插入图片描述

Checkpoint存储支持2种方式:JobManager内存和FileSystem文件系统

在这里插入图片描述

08-Flink Checkpoint之Checkpoint 案例演示


在Flink如何配置Checkpoint,有如下几种方式:

  • 1)、全局配置,配置文件:flink-conf.yaml

在这里插入图片描述

  • 2)、在代码中配置:每个应用单独配置

在这里插入图片描述

注意:如果将State存储RocksDBStateBackend内存中,需要引入相关依赖

<dependency>
    <groupId>org.apache.flink</groupId>
    <artifactId>flink-statebackend-rocksdb_2.11</artifactId>
    <version>1.13.1</version>
</dependency>

Flink 1.13版本,应用程序使用新 API,兼容以前版本State状态和Checkpoint检查点设置:

  • 第一种:内存状态后端【MemoryStateBackend

在这里插入图片描述

  • 第二种:文件系统状态后端【FsStateBackend

在这里插入图片描述

  • 第三种:RocksDB状态后端【RocksDBStateBackend

在这里插入图片描述

​ 编写Flink入门案例程序,词频统计WordCount,自定义数据源,产生数据:spark flink,设置Checkpoint,运行程序,查看Checkpoint检查点数据存储。

https://nightlies.apache.org/flink/flink-docs-release-1.13/docs/dev/datastream/fault-tolerance/checkpointing/

在这里插入图片描述

代码中加上上述针对Checkpoint设置代码,完整代码如下:

在这里插入图片描述

package cn.itqzd.flink.ckpt;

import org.apache.flink.api.common.functions.FlatMapFunction;
import org.apache.flink.api.common.functions.MapFunction;
import org.apache.flink.api.java.tuple.Tuple2;
import org.apache.flink.configuration.Configuration;
import org.apache.flink.runtime.state.hashmap.HashMapStateBackend;
import org.apache.flink.streaming.api.CheckpointingMode;
import org.apache.flink.streaming.api.datastream.DataStreamSource;
import org.apache.flink.streaming.api.datastream.SingleOutputStreamOperator;
import org.apache.flink.streaming.api.environment.CheckpointConfig;
import org.apache.flink.streaming.api.environment.StreamExecutionEnvironment;
import org.apache.flink.streaming.api.functions.source.RichParallelSourceFunction;
import org.apache.flink.util.Collector;

import java.util.concurrent.TimeUnit;

/**
 * Flink 流式计算程序检查点Checkpoint配置
 * @author xuyuan
 */
public class StreamCheckpointSettingDemo {

	/**
	 * 自定义数据源,每隔1秒产生1条数据
	 */
	private static class DataSource extends RichParallelSourceFunction<String> {
		private boolean isRunning = true ;

		@Override
		public void run(SourceContext<String> ctx) throws Exception {
			while (isRunning){
				// 发送数据
				ctx.collect("spark flink flink");

				// 每隔1秒发送1条数据
				TimeUnit.SECONDS.sleep(1);
			}
		}

		@Override
		public void cancel() {
			isRunning = false ;
		}
	}

	public static void main(String[] args) throws Exception {
		// 1. 执行环境-env
		Configuration configuration = new Configuration();
		configuration.setString("rest.port", "8081");
		StreamExecutionEnvironment env = StreamExecutionEnvironment.getExecutionEnvironment(configuration);
		env.setParallelism(1) ;
		// todo: 设置检查点Checkpoint属性,状态保存和快照保存
		setEnvCheckpoint(env);

		// 2. 数据源-source
		DataStreamSource<String> dataStream = env.addSource(new DataSource());

		// 3. 数据转换-transformation
		SingleOutputStreamOperator<Tuple2<String, Integer>> outputStream = dataStream
			.flatMap(new FlatMapFunction<String, String>() {
				@Override
				public void flatMap(String value, Collector<String> out) throws Exception {
					String[] words = value.split("\\s+");
					for (String word : words) {
						out.collect(word);
					}
				}
			})
			.map(new MapFunction<String, Tuple2<String, Integer>>() {
				@Override
				public Tuple2<String, Integer> map(String value) throws Exception {
					return Tuple2.of(value, 1);
				}
			})
			.keyBy(tuple -> tuple.f0).sum(1);

		// 4. 数据终端-sink
		outputStream.printToErr();

		// 5. 触发执行-execute
		env.execute("StreamCheckpointDemo");
	}

	/**
	 * Flink 流式应用,Checkpoint 检查点设置
	 */
	private static void setEnvCheckpoint(StreamExecutionEnvironment env) {
		// 1. 启用检查点,设置时间间隔
		env.enableCheckpointing(5000) ;
		// 2. 状态后端,state存储
		env.setStateBackend(new HashMapStateBackend());
		// 3. 检查点存储,Checkpoint存储
		env.getCheckpointConfig().setCheckpointStorage("file:///D:/BigDataSH34/ckpts");
		// todo: 设置Checkpoint检查相关属性
		// 4. 相邻两个Checkpoint间隔最小时间
		env.getCheckpointConfig().setMinPauseBetweenCheckpoints(500);
		// 5. 容忍Checkpoint失败最大次数
		env.getCheckpointConfig().setTolerableCheckpointFailureNumber(3);
		// 6. 当job取消,保存Checkpoint数据,默认自动删除数据
		env.getCheckpointConfig().enableExternalizedCheckpoints(
            CheckpointConfig.ExternalizedCheckpointCleanup.RETAIN_ON_CANCELLATION
        );
		// 7. 允许同时进行Checkpoint数目:1个
		env.getCheckpointConfig().setMaxConcurrentCheckpoints(1);
		// 8. Checkpoint超时时间,如果超过时间,就表示失败
		env.getCheckpointConfig().setCheckpointTimeout(5 * 60 * 1000L);
		// 9. Checkpoint执行模式化:精确性一次语义
		env.getCheckpointConfig().setCheckpointingMode(CheckpointingMode.EXACTLY_ONCE);
	}

}  

运行流式程序,WEB 监控页面查看Checkpoint检查点统计信息:

在这里插入图片描述

09-Flink Checkpoint之手动重启恢复状态


在Flink流式计算程序中,如果设置Checkpoint检查点以后,当应用程序运行失败,可以从检查点恢复:

  • 1)、手动重启应用,从Checkpoint恢复状态
    • 程序升级(人为停止程序)等
  • 2)、自动重启应用,从Checkpoint恢复状态
    • 程序异常时,自动重启,继续运行处理数据,比如出现“脏数据”
    • 自动重启,设置最大重启次数,如果重启超过设置次数,需要人为干预,进行手动重启

[将上述Flink程序,打成jar包,在Flink Standalone Cluster上提交运行],具体操作步骤如下所示:


  • step1、把程序打包

在这里插入图片描述

  • step2、启动Flink集群(Standalone 分布式集群)

    # 如果HDFS没有启动,先启动服务,将Checkpoint数据保存到HDFS文件系统
    [root@node1 ~]# hadoop-daemon.sh start namenode 
    [root@node1 ~]# hadoop-daemons.sh start datanode 
    
    [root@node1 ~]# /export/server/flink-standalone/bin/start-cluster.sh
    
    
  • step3、访问webUI:http://node1:8081/#/overview

在这里插入图片描述

  • step4、使用Flink WebUI提交,填写如下参数
cn.itqzd.flink.checkpoint.StreamCheckpointDemo
hdfs://node1:8020/flink/checkpoint

在这里插入图片描述

  • step5、取消任务

在这里插入图片描述

  • step6、查看HDFS目录,Checkpoint存文件

在这里插入图片描述

  • step7、重新启动任务并指定从哪恢复
cn.itqzd.flink.checkpoint.StreamCheckpointDemo
hdfs://node1:8020/flink/checkpoint
hdfs://node1:8020/flink/checkpoint/6900e6108bb88a5d13d9a01cf3536bc9/chk-27

在这里插入图片描述

使用flink run 运行Job执行,指定参数选项 -s path,从Checkpoint检查点启动,恢复以前状态。

在这里插入图片描述

10-Flink Checkpoint之自动重启恢复状态


在Flink流式计算程序中,可以设置当应用处理数据异常时,可以自动重启,相关设置如下:

在这里插入图片描述

重启策略分为4类:

  • 1)、默认重启策略
    • 如果配置Checkpoint,没有配置重启策略,那么代码中出现了非致命错误时,程序会无限重启。
  • 2)、无重启策略
    • Job直接失败,不会尝试进行重启

在这里插入图片描述

  • 3)、固定延迟重启策略(开发中使用)
    • 设置固定重启次数,及重启间隔时间

在这里插入图片描述

  • 4)、失败率重启策略(偶尔使用)

在这里插入图片描述

修改前面Checkpoint程序,设置自动重启策略:自动重启3次,每次时间间隔为5秒

在这里插入图片描述

package cn.itqzd.flink.checkpoint;

import org.apache.flink.api.common.functions.FlatMapFunction;
import org.apache.flink.api.common.restartstrategy.RestartStrategies;
import org.apache.flink.api.java.tuple.Tuple2;
import org.apache.flink.configuration.Configuration;
import org.apache.flink.runtime.state.hashmap.HashMapStateBackend;
import org.apache.flink.streaming.api.CheckpointingMode;
import org.apache.flink.streaming.api.datastream.DataStreamSource;
import org.apache.flink.streaming.api.datastream.SingleOutputStreamOperator;
import org.apache.flink.streaming.api.environment.CheckpointConfig;
import org.apache.flink.streaming.api.environment.StreamExecutionEnvironment;
import org.apache.flink.streaming.api.functions.source.RichParallelSourceFunction;
import org.apache.flink.util.Collector;

import java.util.concurrent.TimeUnit;

public class StreamRestartStrategyDemo {

	/**
	 * 自定义数据源,每隔一定时间产生字符串
	 */
	private static class MySource extends RichParallelSourceFunction<String>{
		private boolean isRunning = true ;

		@Override
		public void run(SourceContext<String> ctx) throws Exception {
			int counter = 0 ;
			while (isRunning){
				// 发送数据
				ctx.collect("spark flink flink");

				// 每隔1秒发送1次数据
				TimeUnit.SECONDS.sleep(1);

				counter += 1;
				if(counter % 5 == 0){
					throw new RuntimeException("程序出现异常啦.......................") ;
				}
			}
		}

		@Override
		public void cancel() {
			isRunning = false ;
		}
	}

	public static void main(String[] args) throws Exception {
		// 1. 执行环境-env
		Configuration configuration = new Configuration() ;
		configuration.setString("rest.port", "8081");
		StreamExecutionEnvironment env = StreamExecutionEnvironment.getExecutionEnvironment(configuration);
		env.setParallelism(1) ;
		// todo: 设置检查点Checkpoint属性,保存状态和快照保存
		setEnvCheckpoint(env, args) ;
		// todo: 设置重启策略,默认情况下,非程序致命错误,无限重启
		env.setRestartStrategy(
			RestartStrategies.fixedDelayRestart(3, 10000)
		);

		// 2. 数据源-source
		DataStreamSource<String> inputStream = env.addSource(new MySource());

		// 3. 数据转换-transformation
		SingleOutputStreamOperator<Tuple2<String, Integer>> outputStream = inputStream
			.filter(line -> line.trim().length() > 0)
			.flatMap(new FlatMapFunction<String, Tuple2<String, Integer>>() {
				@Override
				public void flatMap(String value, Collector<Tuple2<String, Integer>> out) throws Exception {
					String[] words = value.trim().split("\\s+");
					for (String word : words) {
						out.collect(Tuple2.of(word, 1));
					}
				}
			})
			.keyBy(tuple -> tuple.f0).sum(1);

		// 4. 数据终端-sink
		outputStream.printToErr();

		// 5. 触发执行-execute
		env.execute("StreamRestartStrategyDemo");
	}

	/**
	 * Flink 流式应用,Checkpoint检查点属性设置
	 */
	private static void setEnvCheckpoint(StreamExecutionEnvironment env, String[] args) {
		/* TODO: ================================== 建议必须设置 ================================== */
// 1. 设置Checkpoint-State的状态后端为FsStateBackend,本地测试时使用本地路径,集群测试时使用传入的HDFS的路径
		env.setStateBackend(new HashMapStateBackend()) ;
		if (args.length < 1) {
			env.getCheckpointConfig().setCheckpointStorage("file:///D:/ckpt");
		} else {
			// 后续集群测试时,传入参数:hdfs://node1:8020/flink-checkpoints/checkpoint
			env.getCheckpointConfig().setCheckpointStorage(args[0]);
		}
/*
2. 设置Checkpoint时间间隔为1000ms,意思是做 2 个 Checkpoint 的间隔为1000ms。
Checkpoint 做的越频繁,恢复数据时就越简单,同时 Checkpoint 相应的也会有一些IO消耗。
*/
		env.enableCheckpointing(1000);// 默认情况下如果不设置时间checkpoint是没有开启的
/*
3. 设置两个Checkpoint 之间最少等待时间,如设置Checkpoint之间最少是要等 500ms
为了避免每隔1000ms做一次Checkpoint的时候,前一次太慢和后一次重叠到一起去了
如:高速公路上,每隔1s关口放行一辆车,但是规定了两车之前的最小车距为50m
*/
		env.getCheckpointConfig().setMinPauseBetweenCheckpoints(500);
/*
4. 设置Checkpoint时失败次数,允许失败几次
 */
		env.getCheckpointConfig().setTolerableCheckpointFailureNumber(3); //

/*
5. 设置是否清理检查点,表示 Cancel 时是否需要保留当前的 Checkpoint,默认 Checkpoint会在作业被Cancel时被删除
ExternalizedCheckpointCleanup.RETAIN_ON_CANCELLATION:false,当作业被取消时,保留外部的checkpoint
ExternalizedCheckpointCleanup.DELETE_ON_CANCELLATION:true,当作业被取消时,删除外部的checkpoint(默认值)
*/
		env.getCheckpointConfig().enableExternalizedCheckpoints(
			CheckpointConfig.ExternalizedCheckpointCleanup.RETAIN_ON_CANCELLATION
		);

		/* TODO: ================================== 直接使用默认的即可 ================================== */
/*
6. 设置checkpoint的执行模式为EXACTLY_ONCE(默认),注意:需要外部支持,如Source和Sink的支持
 */
		env.getCheckpointConfig().setCheckpointingMode(CheckpointingMode.EXACTLY_ONCE);
/*
7. 设置checkpoint的超时时间,如果 Checkpoint在 60s内尚未完成说明该次Checkpoint失败,则丢弃。
 */
		env.getCheckpointConfig().setCheckpointTimeout(60000);
/*
8. 设置同一时间有多少个checkpoint可以同时执行
 */
		env.getCheckpointConfig().setMaxConcurrentCheckpoints(1); // 默认为1
	}

}  

11-Flink Checkpoint之Savepoint 保存点


​ Flink流式计算,提供Checkpoint机制,程序自动将State进行快速Snapshot,然后进行Checkpoint保存。此外,还支持用户可以手动进行Snapshot,保存State数据,称为:SavePoint保存点。

https://nightlies.apache.org/flink/flink-docs-release-1.13/docs/ops/state/savepoints/

[SavePoint保存点由用户手动创建、拥有和删除,它们的用例用于有计划的、手动的备份和恢复。]

在这里插入图片描述

Savepoint:保存点,类似于以前玩游戏的时候,遇到难关/遇到boss,赶紧手动存个档,然后接着玩,如果失败了,赶紧从上次的存档中恢复,然后接着玩。

在这里插入图片描述

保存点SavePoint和检查点Checkpoint区别:

在这里插入图片描述

SavePoint保存配置,可以在flink-yaml文件及代码中配置:

在这里插入图片描述

Flink Savepoint 作为实时任务的全局镜像,可以看做 Checkpoint在特定时期的一个状态快照。

# Trigger a Savepoint 
$ bin/flink savepoint :jobId [:targetDirectory]

# Trigger a Savepoint with YARN
$ bin/flink savepoint :jobId [:targetDirectory] -yid :yarnAppId

# Stopping a Job with Savepoint
$ bin/flink stop --savepointPath [:targetDirectory] :jobId

# Resuming from Savepoint
$ bin/flink run -s :savepointPath [:runArgs]

**案例演示:**运行前面Checkpoint程序,将其运行在Standalone集群上,采用WEB UI界面方式部署运行。

# 1)、启动HDFS集群和Standalone集群
[root@node1 ~]# hadoop-daemon.sh start namenode 
[root@node1 ~]# hadoop-daemons.sh start datanode 

[root@node1 ~]# /export/server/flink-standalone/bin/start-cluster.sh 

# 清空缓存数据
echo 1 > /proc/sys/vm/drop_caches

# 2)、提交运行Job
/export/server/flink-standalone/bin/flink run -d \
--class cn.itqzd.flink.checkpoint.StreamCheckpointDemo \
/root/ckpt.jar hdfs://node1:8020/flink/checkpoint

# 如果执行上述提交命令,出现找YARN集群提交,需要删除/tmp/.yarn-properties-root 文件即可
rm -rf /tmp/.yarn-properties-root 

在这里插入图片描述

# 3)、手动创建savepoint
# 停止Job执行,并且进行SavePoint
/export/server/flink-standalone/bin/flink stop --savepointPath hdfs://node1:8020/flink/savepoint/ 6267b9ee0707a88e39acbe09a641ff2e

# 4)、重新启动job,手动加载savepoint数据
/export/server/flink-standalone/bin/flink run -d \
-s hdfs://node1:8020/flink/savepoint/savepoint-6267b9-5c31a1b8e6fc \
--class cn.itqzd.flink.checkpoint.StreamCheckpointDemo \
/root/ckpt.jar hdfs://node1:8020/flink/checkpoint



第三部分:End-to-End Exactly-Once

12-End-to-End Exactly-Once之一致性语义


对于流处理程序内部来说,所谓的状态一致性,其实就是所说的计算结果要保证准确

在这里插入图片描述

		对数据流DataStream中每条数据计算时:[一条数据不应该丢失,也不应该重复计算,在遇到故障时可以恢复状态,如果重新计算,结果应该也是完全正确的。]

​ 流处理引擎通常为应用程序提供了三种数据处理语义:最多一次、至少一次和精确一次,后来Flink计算引擎添加:端到端精确性一次语义,不同处理语义的宽松定义(一致性由弱到强):

在这里插入图片描述

  • 1)、最多一次:At-most-once,数据可能丢失,没有进行处理

​ 当Job任务故障时,最简单的做法是什么都不干,既不恢复丢失的状态,也不重播丢失的数据。At-most-once 语义的含义是最多处理一次事件

在这里插入图片描述

  • 2)、至少一次:At-least-once,数据可能被处理多次

​ 在大多数的真实应用场景,希望不丢失事件,这种类型的保障称为 at-least-once,意思是所有的事件都得到了处理,而一些事件还可能被处理多次

在这里插入图片描述

  • 3)、精确一次:Exactly-once,数据被处理一次,不会丢弃,也不会重复
		**恰好处理一次**是最严格的保证,也是最难实现的。恰好处理一次语义不仅仅意味着没有事件丢失,还意味着==针对每一个数据,内部状态仅仅更新一次==。

在这里插入图片描述

​ Flink Checkpoint机制和故障恢复机制给Flink内部提供了精确一次的保证,需要注意的是,所谓精确一次并不是说精确到每个event只执行一次,而是每个event对状态(计算结果)的影响只有一次

  • 4)、End-to-End Exactly-Once

[Flink 在1.4.0 版本引入『exactly-once』并号称支持『End-to-End Exactly-Once』“端到端的精确一次”语义。]

  • 端到端的精确一次:结果的正确性贯穿了整个流处理应用的始终,每一个组件都保证了它自己的一致性
  • 端到端的精确一次:Flink 应用从 Source 端开始到 Sink 端结束,数据必须经过的起始点和结束点

在这里插入图片描述

**『exactly-once』和『End-to-End Exactly-Once』**的区别,如下图所示:

在这里插入图片描述

在这里插入图片描述

在流式计算引擎中,如果要实现精确一致性语义,有如下三种方式:

  • 1)、方式一:至少一次+去重

在这里插入图片描述

  • 2)、方式二:至少一次+幂等

在这里插入图片描述

  • 3)、方式三:分布式快照

在这里插入图片描述

上述三种实现流式计算一致性语义方式,综合相比较,如下图所示:

在这里插入图片描述

13-End-to-End Exactly-Once之Flink 一致性实现


​ Flink 内部借助分布式快照Checkpoint已经实现了内部的Exactly-Once,但是Flink自身是无法保证外部其他系统“精确一次”语义的,所以Flink 若要实现所谓“端到端(End to End)的精确一次”的要求,那么外部系统必须支持“精确一次”语义,然后借助一些其他手段才能实现

在这里插入图片描述

  1. 数据源Source:支持重设数据的读取位置,比如偏移量offfset(kafka消费数据)
  2. 数据转换Transformation:Checkpoint检查点机制(采用分布式快照算法实现一致性)
  3. 数据终端Sink:要么支持幂等性写入,要么事务写入

在这里插入图片描述

在Flink中Data Sink要实现精确一次性

  • 1)、幂等写入(Idempotent Writes)

在这里插入图片描述

1、Redis 内存KeyValue数据库
	set flink:wordcount:spark  99
	
2、HBase NoSQL数据库
	put t1 rk1 info:name zhangsan
	
3、MySQL 数据库
	replace into tbl_xx (id, name, age) Values(1001, ‘张三', 34 ) ;

  • 2)、事务写入(Transactional Writes)

在这里插入图片描述

在这里插入图片描述

​ 在事务写入的具体实现上,Flink目前提供了两种方式:

1、预写日志(Write-Ahead-Log)WAL

  • 把结果数据先当成状态保存,然后在收到 checkpoint 完成的通知时,一次性写入 sink 系统;
  • 简单易于实现,由于数据提前在状态后端中做了缓存,所以无论什么 sink 系统,都能用这种方式;
  • DataStream API 提供了一个模板类:GenericWriteAheadSink,来实现这种事务性 sink;

在这里插入图片描述

2、两阶段提交(Two-Phase-Commit,2PC

  • step1、对于每个 checkpoint,Data Sink 任务会启动一个事务,并将接下来所有接收的数据添加到事务里;
  • step2、然后将这些数据写入外部 sink 系统,但不提交它们 —— 这时只是**“预提交**”;
  • step3、当它收到 checkpoint 完成的通知时,它才正式提交事务,实现结果的真正写入;
  • 此种方式真正实现exactly-once,需要一个提供事务支持的外部 sink 系统
  • Flink 提供了 TwoPhaseCommitSinkFunction 接口。

在这里插入图片描述

预写日志WAL和两阶段提交2PC区别:

在这里插入图片描述

​ Flink 流式应用如果要是端到端精确性一次语义,从Source数据源端,到Flink应用程序,最后到Sink数据接收器端,满足如下条件即可:

在这里插入图片描述

14-End-to-End Exactly-Once之两阶段提交


顾名思义,2PC将分布式事务分成了两个阶段,两个阶段分别为提交请求(投票)提交(执行)

​ Flink提供基于2PC的SinkFunction,名为TwoPhaseCommitSinkFunction,做了一些基础的工作。它的第一层类继承关系如下:

在这里插入图片描述

TwoPhaseCommitSinkFunction仍然留了以下四个抽象方法待子类来实现:

在这里插入图片描述

# 1、开始一个事务,返回事务信息的句柄。
	protected abstract TXN beginTransaction() throws Exception;

# 2、预提交(即提交请求)阶段的逻辑。
	protected abstract void preCommit(TXN transaction) throws Exception;
	当Sink进行Checkpoint完成时,将数据预提交到事务中
  
# 3、正式提交阶段的逻辑。
	protected abstract void commit(TXN transaction);
	当Sink接收到JobManager通知整个Checkpoint完成通知以后,将数据真正提交到外部存储中

# 4、取消事务。
	protected abstract void abort(TXN transaction);

以MySQL数据库为例,手动事务性提交数据

package cn.itqzd.flink.exactly;


import java.sql.Connection;
import java.sql.DriverManager;
import java.sql.PreparedStatement;
import java.sql.SQLException;

/**
 * 采用JDBC方式向MySQL数据库写入数据
 * @author xuyuan
 */
public class MysqlJdbcDemo {

    /**
        向MySQL数据库写入数据,采用JDBC方式,5个步骤
            1. 加载驱动类
            2. 连接
            3. Statement对象
            4. 执行
            5. 关闭
     */
    public static void main(String[] args) throws SQLException {
        // 定义变量
        Connection connection = null;
        PreparedStatement pstmt = null;

        try {
            // 1. 加载驱动类
            Class.forName("com.mysql.jdbc.Driver");

            // 2. 获取连接
            connection = DriverManager.getConnection("jdbc://...", "root", "123456");
            // todo step1. 开启事务
            connection.setAutoCommit(false);

            // 3. 创建Statement对象
            pstmt = connection.prepareStatement(
                "INSERT INTO db_flink.t_student(id, name, age) VALUES (?, ?, ?)"
            );
            pstmt.setInt(1, 31);
            pstmt.setString(2, "Jack");
            pstmt.setInt(3, 24);

            // 4. 执行SQL todo step2. 预提交
            pstmt.execute();

            // todo step3. 提交
            connection.commit();
        } catch (Exception e) {
            e.printStackTrace();

            // todo step4. 回滚
            if (null != connection) {
                connection.rollback();
            }
        } finally {
            // 5. 关闭连接
            if (null != pstmt) {
                pstmt.close();
            }
            if (null != connection) {
                connection.close();
            }
        }
    }

}

​ 以Flink与Kafka的集成来说明2PC的具体流程,注意Kafka版本必须是0.11及以上,因为只有0.11+的版本才支持幂等producer以及事务性,从而2PC才有存在的意义。

  • 1、JobManager 协调各个 TaskManager 进行 checkpoint 存储。checkpoint保存在 StateBackend中,默认StateBackend是内存级的。

在这里插入图片描述

  • 2、当开启了checkpoint ,JobManager 会将检查点分界线(barrier)注入数据流 ,barrier会在算子间传递下去;

在这里插入图片描述

  • 3、每个算子会对当前的状态做个快照,保存到状态后端,checkpoint 机制可以保证内部的状态一致性。

在这里插入图片描述

  • 4、每个内部的 transformation 任务遇到 barrier 时,都会把状态存到 checkpoint 里;**sink 任务首先把数据写入外部 kafka,这些数据都属于预提交的事务;**遇到 barrier 时,把状态保存到状态后端,并开启新的预提交事务。

在这里插入图片描述

  • 5、当所有算子任务的快照完成,也就是这次的 checkpoint 完成时,JobManager 会向所有任务发通知,确认这次 checkpoint 完成;sink 任务收到确认通知,正式提交之前的事务,kafka 中未确认数据改为“已确认”。

在这里插入图片描述

  • 6、只有在所有检查点都成功完成这个前提下,写入才会成功。其中JobManager为协调者,各个算子为参与者(不过只有sink一个参与者会执行提交)。一旦有检查点失败,notifyCheckpointComplete()方法就不会执行。如果重试也不成功的话,最终会调用abort()方法回滚事务。

在这里插入图片描述

​ 上述过程可以发现,[一旦Pre-commit完成,必须要确保commit也要成功,Operator和外部系统都需要对此进行保证。]整个 [两阶段提交协议2PC]就是解决分布式事务问题,所以才能有如今Flink可以端到端精准一次处理。

15-End-to-End Exactly-Once之Flink+Kafka一致性


使用Flink + Kafka来实现一个端对端一致性保证:source(kafka) -> transform -> sink

  • 数据源Source:Kafka Consumer 作为 Source,可以将偏移量保存下来,如果后续任务出现了故障,恢复的时候可以由连接器FlinkKafkaConsumer/KafkaSource重置偏移量,重新消费数据,保证一致性;
  • 数据转换(内部): 利用Checkpoin 机制,把状态存盘,发生故障的时候可以恢复,保证内部的状态一致性;
  • 数据终端sink:采用两阶段提交Sink,需要实现一个 TwoPhaseCommitSinkFunction

https://flink.apache.org/features/2018/03/01/end-to-end-exactly-once-apache-flink.html

在这里插入图片描述

​ [Flink 1.4版本之后,通过两阶段提交(TwoPhaseCommitSinkFunction)支持End-To-EndExactly Once,而且要求Kafka 0.11+。]

在这里插入图片描述

​ 利用TwoPhaseCommitSinkFunction是通用的管理方案,只要实现对应的接口,而且Sink的存储支持事务提交,即可实现端到端的精确性语义。

在这里插入图片描述

代码:FlinkKafkaEndToEndDemo

编写Flink Stream流式应用程序,从Kafka数据源消费数据,再将数据写入Kafka数据接收器。

package cn.itqzd.flink.exactly.kafka;

import org.apache.flink.api.common.restartstrategy.RestartStrategies;
import org.apache.flink.api.common.serialization.SimpleStringSchema;
import org.apache.flink.runtime.state.hashmap.HashMapStateBackend;
import org.apache.flink.streaming.api.CheckpointingMode;
import org.apache.flink.streaming.api.datastream.DataStream;
import org.apache.flink.streaming.api.environment.CheckpointConfig;
import org.apache.flink.streaming.api.environment.StreamExecutionEnvironment;
import org.apache.flink.streaming.connectors.kafka.FlinkKafkaConsumer;
import org.apache.flink.streaming.connectors.kafka.FlinkKafkaProducer;
import org.apache.flink.streaming.connectors.kafka.KafkaSerializationSchema;
import org.apache.kafka.clients.producer.ProducerRecord;

import javax.annotation.Nullable;
import java.util.Properties;

/**
 * Flink Kafka端到端精准一致性测试
 *      从Flink1.4.0版本开始,Kafka版本高于0.11的Kafka Sink可以通过二阶段事务提交构建端到端一致性的实时应用
 *      https://flink.apache.org/features/2018/03/01/end-to-end-exactly-once-apache-flink.html
 * @author xuyuan
 */
public class FlinkKafkaEndToEndDemo {

	/**
	 * Flink Stream流式应用,Checkpoint检查点属性设置
	 */
	private static void setEnvCheckpoint(StreamExecutionEnvironment env) {
		// 1. 设置Checkpoint时间间隔
		env.enableCheckpointing(1000);

		// 2. 设置状态后端
		env.setStateBackend(new HashMapStateBackend());
		env.getCheckpointConfig().setCheckpointStorage("file:///D:/flink-checkpoints/");

		// 3. 设置两个Checkpoint 之间最少等待时间,
		env.getCheckpointConfig().setMinPauseBetweenCheckpoints(500);

		// 4. 设置Checkpoint时失败次数,允许失败几次
		env.getCheckpointConfig().setTolerableCheckpointFailureNumber(3);

		// 5. 设置是否清理检查点,表示 Cancel 时是否需要保留当前的 Checkpoint
		env.getCheckpointConfig().enableExternalizedCheckpoints(
			CheckpointConfig.ExternalizedCheckpointCleanup.RETAIN_ON_CANCELLATION
		);

		// 6. 设置checkpoint的执行模式为EXACTLY_ONCE(默认),注意:需要外部支持,如Source和Sink的支持
		env.getCheckpointConfig().setCheckpointingMode(CheckpointingMode.EXACTLY_ONCE);

		// 7. 设置checkpoint的超时时间,如果 Checkpoint在 60s内尚未完成说明该次Checkpoint失败,则丢弃。
		env.getCheckpointConfig().setCheckpointTimeout(60000);

		// 8. 设置同一时间有多少个checkpoint可以同时执行
		env.getCheckpointConfig().setMaxConcurrentCheckpoints(1);

		// 9. 设置重启策略:NoRestart
		env.setRestartStrategy(RestartStrategies.noRestart());
	}

	/**
	 * 从Kafka实时消费数据,使用Flink Kafka Connector连接器中FlinkKafkaConsumer
	 */
	private static DataStream<String> kafkaSource(StreamExecutionEnvironment env, String topic) {
		// 2-1. 消费Kafka数据时属性设置
		Properties props = new Properties();
		props.put("bootstrap.servers", "node1:9092,node2:9092,node3:9092") ;
		props.put("group.id", "group_id_10001") ;
		props.put("flink.partition-discovery.interval-milli", "10000") ;

		// 2-2. 创建Consumer对象
		FlinkKafkaConsumer<String> kafkaConsumer = new FlinkKafkaConsumer<String>(
			topic,
			new SimpleStringSchema(),
			props
		) ;
		kafkaConsumer.setStartFromLatest();
		// 2-3. 添加数据源
		return env.addSource(kafkaConsumer);
	}

	/**
	 * 将数据流DataStream保存到Kafka Topic中,使用Flink Kafka Connector连接器中FlinkKafkaProducer
	 */
	private static void kafkaSink(DataStream<String> stream, String topic){
		// 4-1. 向Kafka写入数据时属性设置
		Properties props = new Properties();
		props.setProperty("bootstrap.servers", "node1:9092,node2:9092,node3:9092");
		// 端到端一致性:需要指定transaction.timeout.ms(默认为1小时)的值,需要小于transaction.max.timeout.ms(默认为15分钟)
		props.setProperty("transaction.timeout.ms", 1000 * 60 * 2 + "");
		// 4-2. 写入数据时序列化
		KafkaSerializationSchema<String> kafkaSchema = new KafkaSerializationSchema<String>() {
			@Override
			public ProducerRecord<byte[], byte[]> serialize(String element, @Nullable Long timestamp) {
				return new ProducerRecord<byte[], byte[]>(topic, element.getBytes());
			}
		};
		// 4-3. 创建Producer对象
		FlinkKafkaProducer<String> producer = new FlinkKafkaProducer<String>(
			topic,
			kafkaSchema,
			props,
			FlinkKafkaProducer.Semantic.EXACTLY_ONCE
		) ;
		// 4-4. 添加Sink
		stream.addSink(producer);
	}

	public static void main(String[] args) throws Exception {
		// 1. 执行环境-env
		StreamExecutionEnvironment env = StreamExecutionEnvironment.getExecutionEnvironment();
		env.setParallelism(2);
		// TODO: 设置Checkpoint和Restart
		setEnvCheckpoint(env);

		// 2. 数据源-source
		DataStream<String> inputStream = kafkaSource(env, "flink-input-topic") ;

		// 3. 数据转换-transformation

		// 4. 数据终端-sink
		kafkaSink(inputStream, "flink-output-topic");

		// 5. 触发执行-execute
		env.execute("StreamExactlyOnceKafkaDemo") ;
	}

}

代码:StreamKafkaProducerDemo

编写Flink流式程序,实时产生用户行为日志数据,写入Kafka Topic中。

package cn.itqzd.flink.exactly.kafka;

import org.apache.flink.streaming.api.datastream.DataStream;
import org.apache.flink.streaming.api.environment.StreamExecutionEnvironment;
import org.apache.flink.streaming.api.functions.source.RichParallelSourceFunction;
import org.apache.flink.streaming.connectors.kafka.FlinkKafkaProducer;
import org.apache.flink.streaming.connectors.kafka.KafkaSerializationSchema;
import org.apache.kafka.clients.producer.ProducerRecord;

import javax.annotation.Nullable;
import java.time.Instant;
import java.util.Properties;
import java.util.Random;
import java.util.TimeZone;

/**
 *编写Flink Stream应用程序:自定义数据源,模拟生成测试数据到【flink_input_topic】中。
 * @author xuyuan
 */
public class StreamKafkaProducerDemo {

	/**
	 * 将数据流DataStream保存到Kafka Topic中,使用Flink Kafka Connector连接器中FlinkKafkaProducer
	 */
	private static void kafkaSink(DataStream<String> stream, String topic){
		// 4-1. 向Kafka写入数据时属性设置
		Properties props = new Properties();
		props.setProperty("bootstrap.servers", "node1:9092");
		props.put("group.id", "group_id_20001") ;
		// 4-2. 写入数据时序列化
		KafkaSerializationSchema<String> kafkaSchema = new KafkaSerializationSchema<String>() {
			@Override
			public ProducerRecord<byte[], byte[]> serialize(String element, @Nullable Long timestamp) {
				return new ProducerRecord<byte[], byte[]>(topic, element.getBytes());
			}
		};
		// 4-3. 创建Producer对象
		FlinkKafkaProducer<String> producer = new FlinkKafkaProducer<String>(
			topic,
			kafkaSchema,
			props,
			FlinkKafkaProducer.Semantic.EXACTLY_ONCE
		) ;
		// 4-4. 添加Sink
		stream.addSink(producer);
	}

	public static void main(String[] args) throws Exception {
		// 1. 执行环境-env
		StreamExecutionEnvironment env = StreamExecutionEnvironment.getExecutionEnvironment();
		env.setParallelism(1);

		// 2. 数据源-source
		DataStream<String> inputStream = env.addSource(new RichParallelSourceFunction<String>() {
			private boolean isRunning = true;
			@Override
			public void run(SourceContext<String> ctx) throws Exception {
				Random random = new Random();
				TimeZone timeZone = TimeZone.getTimeZone("Asia/Shanghai");
				// 循环产生数据
				while (isRunning){
					Instant instant = Instant.ofEpochMilli(
						System.currentTimeMillis() + timeZone.getOffset(System.currentTimeMillis())
					);
					String ouptut = String.format(
						"{\"ts\": \"%s\",\"user_id\": \"%s\", \"item_id\":\"%s\", \"category_id\": \"%s\"}",
						instant.toString(),
						"user_" + (10000 + random.nextInt(10000)),
						"item_" + (100000 + random.nextInt(100000)),
						"category_" + (200 + random.nextInt(200))
					);
					System.out.println(ouptut);
					ctx.collect(ouptut);
					// 每隔1秒产生1条数据
					Thread.sleep(1000);
				}
			}

			@Override
			public void cancel() {
				isRunning = false;
			}
		}) ;

		// 3. 数据转换-transformation

		// 4. 数据终端-sink
		kafkaSink(inputStream, "flink-input-topic");

		// 5. 触发执行-execute
		env.execute("StreamKafkaProducerDemo") ;
	}
}

代码:StreamKafkaConsumerDemo

编写Flink Stream流式程序,实时从Kafka Topic消费数据。

package cn.itqzd.flink.exactly.kafka;

import org.apache.flink.api.common.serialization.SimpleStringSchema;
import org.apache.flink.streaming.api.datastream.DataStream;
import org.apache.flink.streaming.api.environment.StreamExecutionEnvironment;
import org.apache.flink.streaming.connectors.kafka.FlinkKafkaConsumer;

import java.util.Properties;

/**
 * 编写Flink Stream应用程序:从Kafka的【flink_output_topic】中实时消费数据,打印纸控制台。
 * @author xuyuan
 */
public class StreamKafkaConsumerDemo {

	/**
	 * 从Kafka实时消费数据,使用Flink Kafka Connector连接器中FlinkKafkaConsumer
	 */
	private static DataStream<String> kafkaSource(StreamExecutionEnvironment env, String topic) {
		// 2-1. 消费Kafka数据时属性设置
		Properties props = new Properties();
		props.put("bootstrap.servers", "node1:9092") ;
		props.put("group.id", "group_id_30001") ;

		// 2-2. 创建Consumer对象
		FlinkKafkaConsumer<String> kafkaConsumer = new FlinkKafkaConsumer<String>(
			topic,
			new SimpleStringSchema(),
			props
		) ;
		kafkaConsumer.setStartFromLatest();
		// 2-3. 添加数据源
		return env.addSource(kafkaConsumer);
	}

	public static void main(String[] args) throws Exception {
		// 1. 执行环境-env
		StreamExecutionEnvironment env = StreamExecutionEnvironment.getExecutionEnvironment();
		env.setParallelism(1);

		// 2. 数据源-source
		DataStream<String> inputStream = kafkaSource(env, "flink-output-topic") ;

		// 3. 数据转换-transformation
		//DataStream<String> outputStream = null ;

		// 4. 数据终端-sink
		inputStream.printToErr();

		// 5. 触发执行-execute
		env.execute("FlinkKafkaConsumerDemo") ;
	}

}

  • 26
    点赞
  • 29
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值