flink-状态一致性(十三)

flink-状态一致性(十三)

状态一致性
1.有状态的流处理,内部每个算子任务都可以有自己的状态
2.对于流处理内部来说,所谓的状态一致性就是我们所说的计算结果要保证准确
3.一条数据不丢失,也不重复计算
4.在遇到故障时可以恢复状态,恢复以后的重新计算,结果应该也是完成正确的

状态一致性分类:

1.exactly-once
恰好处理一次是最严格的保证,也是最难实现的。恰好处理一次语义不仅仅意味着没有事件的丢失,还意味着针对每一个数据,内部状态仅仅更新一次
2.at-most-once
最多处理一次事件。当任务故障时,最简单的做法是什么都不做,既不恢复丢失的状态,也不重复丢失的数据。
3.at-least-once
至少一次语义
在大多数的真实应用场景中,我们希望不丢失事件,但是会处理多次
一致性检查点
1.flink使用了一种轻量级快照机制--检查点机制(checkpoint)来保证exactly-once语义
2.有状态流应用的一致检查点,其实就是:所有任务的状态,在某个时间点的一份拷贝,而这个时间点,应该是所有任务都恰好处理完一个相同的输入数据的时候
3.应用状态的一致检查点,是fink故障恢复机制的核心
端到端的状态一致性
1.目前一致性都是在flink流处理器中实现的,也就是说在flink流处理内部能够保证一致性。但是流处理应用还包括数据源和输出到持久化系统中
2.端到端的一致性保证,意味着结果的正确性贯穿了整个流处理应用的始终,每一个组件都保证了他自己的一致性
3.end-to-end的一致性级别处决于所有组件中最弱的组件(木桶效应)
端到端的精确一次保证
end-to-end的exactly-once保证
1、内部保证:checkpoint
2.source端:可重设数据的读取位置
3.sink端:从故障恢复时,数据不会重复写入到外部系统
	利用下面操作保证不会重复:
	--幂等性写入
	--事务写入

--幂等性
就是一个操作,可以重复执行很多次,但是只导致一次结果的更改,就是只持久化一次,后面的重复执行不起作用

--事务写入
事务:1.应用程序中一系列严密的操作,所有操作必须完成,否自所有的操作撤销
	 2.具有原子性,一个操作要么全部完成要么全部失败
实现:构建的事务对应着checkpoint,等到checkpoint真正完成的时候,才把所有对应的结果写入sink系统中。

方式:1.预写日志(WAL)
	 2.两个阶段提交
	 
---	WAL:
		1.吧结果数据先当成状态保存,然后在收到checkpoint完成的通知时,一次性写入				sink系统
		2.简单易于实现,由于数据提前在状态后端中做了缓存,所以无论什么sink系统,都能			用这种方式完成
		3.DataStreamAPI提供一个模板类:GenericWriteAHeadSink,来实现这种事务性			sink
---	两阶段提交(Two-Phase-Commit)2PC:
		1.对于每个checkpoint,sink事务会启动一个事务,并将接下来所有的接受的数据添			加到事务里
		2.然后将这些数据写入外部sink系统,但不提交他们,预提交
		3.当她收到checkpoint完成的通知时,才正式提交事务,实现结果的真正写入
		4.这种方式真正实现了exactly--once,他需要一个提供事务支持的外部sink 系				统。flink提供了TwoPhaseCommitSinFunction接口
	2PC对外部系统的要求:
	1.外部sink系统必须提供事务支持,或者sink任务必须能够模拟外部系统上的事务
	2.在checkpoint的间隔期间里,必须能够开启一个事务并结构数据写入
	3.在收到checkpoint完成的通知之前,事务必须是等待提交的状态,在故障恢复的情况写,这可能需要一些是时间。如果这个时候sink系统关闭事务(例如超时了),那么未提交的数据就会丢失
	4.sink任务必须能够在进程失败后恢复事务
	5.提交事务必须是幂等性
flink-kafka端到端状态一致性保证
1.内部--利用checkpoint机制,吧状态存盘,发生故障时可以恢复,保证内部状态的一致性
2.source--kafka consumer作为source,可以将偏移量保存下来,如果后续任务出现了故障,恢复的时候可以由连接器重置偏移量,重新消费数据,保证了一致性
3.sink--kafka producer作为sink,采用两阶段提交sink,需要实现一个TwoPhaseCommitSinkFunction接口

kafka作为外部系统的2PC情况:
---exactly-once的两阶段提交
1.JobManager协调各个TaskManager进行checkpoint存储
2.checkpoint保存在StateBackend中,默认StateBackend是内存级的,也可以改为文件级的进行持久化保存
3.当checkpoint启东时,JobManager会将检查点分界线(barrier)注入数据流中,
4.barrier会在算子间传递下去
5.每个算子会对当前的状态做个快照,保存到状态后端
6.checkpoint机制可以保证内部的状态一致性
7.每个内部的transform任务遇到barrier时,都会把状态存到checkpoint里
8.sink任务首先把数据写入到外部kafka,这些数据都属于预提交的事务,遇到barrier时,把状态保存到状态后端,并开启新的预提交事务
9.当所有算子任务的快照完成,也就是这次的checkpoint完成时,JobManager会向所有任务发送通知,确认这次checkpoint完成
10.sink任务收到确认通知,正式提交之前的事务,kafka中未确认数据改为“已确认”

步骤:
1.第一条数据来了之后,开启一个kafka事务,正常写入kafka分区日志单标记为未提交,这就是预提交。。
2.JobManager出发checkpoint操作,barrier从source开始向下传递,遇到barrier的算子将状态存入状态后端,并通知JobManager
3.sink连接器收到barrier,保存当前状态,存入checkpoint,通知jobManager,并开启下一阶段的事务,用于提交下个检查点的数据
4.jobmanager收到所有任务的通知,发出确认信息,表示checkpoint完成
5.sink任务收到jobmanager的确认信息,正式提交这段时间的叔叔
6.外部kafka关闭事务,提交的数据可以正常消费了
  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值