Apache Flink状态管理和容错机制介绍

本文由韩非(Flink China社区志愿者)整理自8月11日在北京举行的 Flink Meetup 会议。分享嘉宾施晓罡,目前在阿里大数据团队部从事Blink方面的研发,现在主要负责Blink状态管理和容错相关技术的研发。

本文主要内容如下:

  • 有状态的流数据处理

  • Flink中的状态接口

  • 状态管理和容错机制实现

  • 阿里相关工作介绍

一、有状态的流数据处理

1.1、什么是有状态的计算

计算任务的结果不仅仅依赖于输入,还依赖于它的当前状态,其实大多数的计算都是有状态的计算。


比如wordcount,给一些word,其计算它的count,这是一个很常见的业务场景。count做为输出,在计算的过程中要不断的把输入累加到count上去,那么count就是一个state。

1.2、传统的流计算系统缺少对于程序状态的有效支持

  • 状态数据的存储和访问

  • 状态数据的备份和恢复

  • 状态数据的划分和动态扩容


       在传统的批处理中,数据是划分为块分片去完成的,然后每一个Task去处理一个分片。当分片执行完成后,把输出聚合起来就是最终的结果。在这个过程当中,对于state的需求还是比较小的。


        对于流计算而言,对State有非常高的要求,因为在流系统中输入是一个无限制的流,会运行很长一段时间,甚至运行几天或者几个月都不会停机。在这个过程当中,就需要将状态数据很好的管理起来。很不幸的是,在传统的流计算系统中,对状态管理支持并不是很完善。比如storm,没有任何程序状态的支持,一种可选的方案是storm+hbase这样的方式去实现,把这状态数据存放在Hbase中,计算的时候再次从Hbase读取状态数据,做更新在写入进去。这样就会有如下几个问题:


  • 流计算系统的任务和Hbase的数据存储有可能不在同一台机器上,导致性能会很差。这样经常会做远端的访问,走网络和存储

  • 备份和恢复是比较困难,因为Hbase是没有回滚的,要做到Exactly onces 很困难。在分布式环境下,如果程序出现故障,只能重启Storm,那么Hbase的数据也就无法回滚到之前的状态。比如广告计费的这种场景,Storm+Hbase是是行不通的,出现的问题是钱可能就会多算,解决以上的办法是Storm+mysql,通过mysql的回滚解决一致性的问题。但是架构会变得非常复杂。性能也会很差,要commit确保数据的一致

  • 对于storm而言状态数据的划分和动态扩容也是非常难做,一个很严重的问题是所有用户都会在strom上重复的做这些工作,比如搜索,广告都要在做一遍,由此限制了部门的业务发展

1.3、Flink丰富的状态访问和高效的容错机制


Flink在最早设计的时候就意识到了这个问题,并提供了丰富的状态访问和容错机制。如下图所示:

 

640?wx_fmt=png

 

Flink并且提供了丰富的状态访问和高效的容错机制


640?wx_fmt=png

   

二、Flink中的状态管理

2.1、按照数据的划分和扩张方式,Flink中大致分为2类:

  • Keyed States

  • Operator States

    640?wx_fmt=png

2.1.1、 Keyed States

 Keyed States的使用


640?wx_fmt=png


 Flink也提供了Keyed States多种数据结构类型

          

640?wx_fmt=png


 Keyed States的动态扩容


640?wx_fmt=png 

2.1.2、Operator State 

Operator States的使用


640?wx_fmt=png

   

Operator States的数据结构不像Keyed States丰富,现在只支持List

 

Operator States多种扩展方式


640?wx_fmt=png

  

Operator States的动态扩展是非常灵活的,现提供了3种扩展,下面分别介绍:


  • ListState:并发度在改变的时候,会将并发上的每个List都取出,然后把这些List合并到一个新的List,然后根据元素的个数在均匀分配给新的Task

  • UnionListState:相比于ListState更加灵活,把划分的方式交给用户去做,当改变并发的时候,会将原来的List拼接起来。然后不做划分,直接交给用户

  • BroadcastState:如大表和小表做Join时,小表可以直接广播给大表的分区,在每个并发上的数据都是完全一致的。做的更新也相同,当改变并发的时候,把这些数据COPY到新的Task即可

      以上是Flink Operator States提供的3种扩展方式,用户可以根据自己的需求做选择。

 

 使用Checkpoint提高程序的可靠性

 

 用户可以根据的程序里面的配置将checkpoint打开,给定一个时间间隔后,框架会按照时间间隔给程序的状态进行备份。当发生故障时,Flink会将所有Task的状态一起恢复到Checkpoint的状态。从哪个位置开始重新执行。


Flink也提供了多种正确性的保障,包括:


  • AT LEAST ONCE

  • Exactly once

           

640?wx_fmt=png


备份为保存在State中的程序状态数据


  Flink也提供了一套机制,允许把这些状态放到内存当中。做Checkpoint的时候,由Flink去完成恢复。


640?wx_fmt=png


从已停止作业的运行状态中恢复


   当组件升级的时候,需要停止当前作业。这个时候需要从之前停止的作业当中恢复,Flink提供了2种机制恢复作业:

 

  • Savepoint:是一种特殊的checkpoint,只不过不像checkpoint定期的从系统中去触发的,它是用户通过命令触发,存储格式和checkpoint

  • External Checkpoint:对已有checkpoint的一种扩展,就是说做完一次内部的一次Checkpoint后,还会在用户给定的一个目录中,多存储一份checkpoint的数据

    640?wx_fmt=png

三、状态管理和容错机制实现

下面介绍一下状态管理和容错机制实现方式,Flink提供了3种不同的StateBackend


  • MemoryStateBackend

  • FsStateBackend

  • RockDBStateBackend

640?wx_fmt=png


用户可以根据自己的需求选择,如果数据量较小,可以存放到MemoryStateBackend和FsStateBackend中,如果数据量较大,可以放到RockDB中。

 

下面介绍HeapKeyedStateBackend和RockDBKeyedStateBackend

 

HeapKeyedStateBackend

 

640?wx_fmt=png

 

RockDBKeyedStateBackend


640?wx_fmt=png

 

Checkpoint的执行流程


Checkpoint的执行流程是按照Chandy-Lamport算法实现的。

  

640?wx_fmt=png


Checkpoint Barrier的对齐

 

640?wx_fmt=png

全量Checkpoint


全量Checkpoint会在每个节点做备份数据时,只需要将数据都便利一遍,然后写到外部存储中,这种情况会影响备份性能。在此基础上做了优化。

 

640?wx_fmt=png


RockDB的增量Checkpoint


RockDB的数据会更新到内存,当内存满时,会写入到磁盘中。增量的机制会将新产生的文件COPY持久化中,而之前产生的文件就不需要COPY到持久化中去了。通过这种方式减少COPY的数据量,并提高性能。

 

640?wx_fmt=png

四、阿里相关工作介绍

  Flink在阿里的成长路线


     阿里是从2015年开始调研Flink,2015年10月启动Blink项目,并完善Flink在大规模生产下的一些优化和改进。2016年双11采用了Blink系统,为搜索,推荐,广告业务提供服务。2017年5月Blink已成为阿里的实时计算引擎。

   

640?wx_fmt=png

 

阿里在状态管理和容错相关的工作

   

640?wx_fmt=png


正在做的工作,基于State重构Window方面的一些优化,阿里也正在将功能做完善。后续将包括asynchronous Checkpoint的功能完善,并和社区进一步沟通和合作。帮助Flink社区完善相关方面的工作。



猜你喜欢

欢迎关注本公众号:iteblog_hadoop:

回复 spark_summit_201806 下载 Spark Summit North America 201806 全部PPT

0、回复 电子书 获取 本站所有可下载的电子书

1、Apache Spark 统一内存管理模型详解

2、Elasticsearch 6.3 发布,你们要的 SQL 功能来了

3、Spark Summit North America 201806 全部PPT下载[共147个]

4、干货 | 深入理解 Spark Structured Streaming

5、Apache Spark 黑名单(Blacklist)机制介绍

6、Kafka分区分配策略(Partition Assignment Strategy)

7、Spark SQL 你需要知道的十件事

8、干货 | Apache Spark 2.0 作业优化技巧

9、[干货]大规模数据处理的演变(2003-2017)

10、干货 | 如何使用功能强大的 Apache Flink SQL

11、更多大数据文章欢迎访问https://www.iteblog.com及本公众号(iteblog_hadoop) 12、Flink中文文档: http://flink.iteblog.com 13、Carbondata 中文文档 http://carbondata.iteblog.com

640?wx_fmt=png

  • 1
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值