写在前面
大数据技术已经经过了十几年的发展,最初以离线批处理为主的Hadoop生态圈技术已经趋于成熟,现在随着企业对数据获取的实时性和准确性要求越来越高,以Flink为代表的新一代流式大数据处理引擎横空出世。先不说实时性,针对数据处理的准确性,Flink是怎么做的呢?
1. 基于State的CheckPoint机制
Flink中的数据处理都是有状态的,节点在执行计算任务时会将相关状态信息保存到状态后端(State-Backend),可配置成内存存,文件系统或外部数据库。
下图是Flink内部的CheckPoint的过程示意图
1.首先由JobManager发起一次CheckPoint的Trigger信号。
2.各个TaskManager在接收到Trigger信号后,开始准备各自任务的状态保存。
3.每个TaskManager节点一旦完成了状态的保存,会向JobManager发送CheckPoint成功的ACK信号。
4.JobManager在收到所有节点的ACK信号后,会认为这次CheckPoint操作成功,并更新这次的CheckPoint信息。
上面只是一个非常粗略的CheckPoint过程描述。实际的过程其实比较复杂。因为数据是源源不断的过来的,并且每个节点处理的数据都是不一样的,节点是如何区分每一次CheckPoint的数据范围。另外,因为是分布式的系统,如何做到系统中所有节点在全局下状态的一致性的呢?
这里我们就要提到Flink的Ch