Flink(四十四)—— Flink HDFS Sink 如何保证 exactly-once 语义

97 篇文章 90 订阅

本文将从源码层面来分析在Flink中是如何保证sink数据到HDFS的exactly-once语义的。

Flink中sink数据到HDFS是由BucketingSink来完成。BucketingSink产生的HDFS文件路径格式如下,

/{base/path}/{bucket/path}/{part_prefix}-{parallel_task_index}-{count}{part_suffix}

其中,

•{base/path},构造BucketingSink时指定的base路径;•{bucket/path},分桶路径,BucketingSink可以对数据进行分桶(也可以理解为分区),可以根据系统时间进行分桶,也可以根据数据进行分桶,通过实现Bucketer可以自定义分桶规则;•{part_prefix}与{part_suffix},可自定义的字符串,{part_prefix}默认为part,{part_suffix}默认为空;•{parallel_task_index},因为存在并行的sink task,因此写出去的文件需要用task index来区分;•{count},一个sink task在一个分桶下不可能只允许写入一个文件,BucketingSink会对文件进行滚动操作,有两种rolling策略,文件大小以及时间(与日志文件rolling策略类似)。通过BucketingSink#setBatchSize及BucketingSink#setBatchRolloverInterval可以分别设置该大小及时间。默认大小为384MB,时间为Long.MAX_VALUE。{count}从0开始,根据文件rolling递增;

为了实现exactly-once语义,BucketingSink产生的文件有3种不同的状态:

•in-progress,分桶下正在被写入的文件,一个分桶只会有一个。文件名格式为{in_progress_prefix}{part_prefix}-{parallel_task_index}-{count}{part_suffix}{in_progress_suffix};•pending,in-progress状态的文件关闭后进入pending状态,文件重命名,等待Checkpoint。文件名格式为{pending_prefix}{part_prefix}-{parallel_task_index}-{count}{part_suffix}{pending_suffix};•finished,Checkpoint成功之后,pending状态的文件即可置为finished状态,文件重命名,该状态的文件即为最终产生的可用文件,文件名格式之前已经描述过了;

另外,in-progress状态文件关闭,进入pending状态,由两种机制触发,一个是上文已经提到过的rolling策略,另一个则是分桶inactive触发的文件关闭。BucketingSink会定期扫描所有分桶,当某个分桶超过一定时间没有写入,则会关闭该分桶下in-progress状态的文件,进入pending状态。通过BucketingSink#setInactiveBucketCheckInterval及BucketingSink#setInactiveBucketThreshold即可分别设置扫描周期以及分桶inactive时间阈值,默认都是60秒。

接下来开始进入源码分析,主要是这几个方法:

•initializeState•open•invoke•snapshotState•notifyCheckpointComplete

先说明下为什么是这几个方法。每个Flink程序都会被转换成JobGraph,在运行时最终部署成一个个的StreamTask,每个StreamTask执行自己负责的OperatorChain。而所有的SinkFunction都是由StreamSink这个operator来运行。

/** * A {@link StreamOperator} for executing {@link SinkFunction SinkFunctions}. */@Internalpublic class StreamSink<IN> extends AbstractUdfStreamOperator<Object, SinkFunction<IN>>         implements OneInputStreamOperator<IN, Object> { ... }

StreamTask的执行是通过其invoke方法。invoke方法做的事情大致如下,

 *  -- invoke() *        | *        +----> Create basic utils (config, etc) and load the chain of operators *        +----> operators.setup() *        +----> task specific init() *        +----> initialize-operator-states() *        +----> open-operators() *        +----> run() *        +----> close-operators() *        +----> dispose-operators() *        +----> common cleanup *        +----> task specific cleanup()

其中,initialize operator states,open operators以及run是这里主要关注的三个操作,对应的代码块如下,​​​​​​​

synchronized (lock) {
    // both the following operations are protected by the lock    // so that we avoid race conditions in the case that initializeState()    // registers a timer, that fires before the open() is called.
    initializeState();    openAllOperators();}
// final check to exit early before starting to runif (canceled) {    throw new CancelTaskException();}
// let the task do its workisRunning = true;run();

initializeState方法会调用到BucketingSink#initializeState;openAllOperators方法会调用到BucketingSink#open;run方法会调用到BucketingSink#invoke。

另外两个方法,snapshotState以及notifyCheckpointComplete是跟Checkpoint相关的,StreamTask在执行Checkpoint时,会调用operator的snapshotState方法,最终会调用到BucketingSink#snapshotState。整个Job Checkpoint成功后会发送通知,BucketingSink#notifyCheckpointComplete会被调用。

下面就来看下这些方法的具体实现。

initializeState

initializeState主要做了两件事:

•调用initFileSystem初始化Hadoop的FileSystem;•调用handleRestoredBucketState从Checkpoint/Savepoint中恢复状态信息;

我们往下先看看其他方法再回过头来看状态恢复的实现,即handleRestoredBucketState方法。

open

open方法也比较简单,主要是利用ProcessingTimeService注册定时器,定时检查上文提到的inactive的分桶。

invoke

invoke方法主要做了四件事,如下注释,​​​​​​​

@Overridepublic void invoke(T value) throws Exception {    /******* 第一步,使用Bucketer获取当前数据所属的分桶 *******/    Path bucketPath = bucketer.getBucketPath(clock, new Path(basePath), value);
    long currentProcessingTime = processingTimeService.getCurrentProcessingTime();
    /******* 第二步,获取分桶状态,若分桶不存在,则生成分桶状态信息 *******/    BucketState<T> bucketState = state.getBucketState(bucketPath);    if (bucketState == null) {        bucketState = new BucketState<>(currentProcessingTime);        state.addBucketState(bucketPath, bucketState);    }
    /******* 第三步,对分桶当前正在写入的文件执行rolling策略 *******/    if (shouldRoll(bucketState, currentProcessingTime)) {        openNewPartFile(bucketPath, bucketState);    }
    /******* 第四步,数据写入文件 *******/    bucketState.writer.write(value);    bucketState.lastWrittenToTime = currentProcessingTime;}

分桶状态(BucketState)信息包括:

•currentFile,该分桶当前正在被写入,即in-progress状态的文件;•currentFileValidLength,该文件的有效长度;•creationTime,该文件的创建时间;•lastWrittenToTime,该分桶最后一次写入的时间;•partCounter,上文提到的文件名称格式中的{count}值;•pendingFiles,该分桶下处于pending状态的文件;•pendingFilesPerCheckpoint,等待Checkpoint成功通知的文件;

来看下文件新建跟写入的实现。由openNewPartFile新建文件,该方法主要做两件事:

•调用closeCurrentPartFile方法,如果当前分桶有处于in-progress状态的文件,则调用Writer#close方法关闭该文件,并且将该文件重命名,置为pending状态,并修改分桶状态的pendingFiles信息;•构造新的in-progress状态的文件名,调用Writer#open打开文件,修改分桶状态的currentFile,creationTime等信息;

文件的写入则是调用Writer#write来完成。可以看到这里分别使用了Writer的open,write,close方法来实现文件的创建,写入以及关闭。Writer的默认实现为StringWriter,下面来看下该实现。

StringWriter

open,调用由BucketingSink初始化的FileSystem的create方法来创建文件,得到FSDataOutputStream;write,调用FSDataOutputStream#write方法写入数据;close,首先根据配置(syncOnFlush)调用FSDataOutputStream的hsync或者hflush来flush数据(二者区别请参考API文档),然后调用FSDataOutputStream#close方法关闭文件;

snapshotState

snapshotState主要是以下三步,

•对所有分桶调用Writer#flush将缓存的数据写出去,并记录文件长度,更新currentFileValidLength信息;•修改所有分桶的pendingFilesPerCheckpoint信息,记录本次Checkpoint该分桶对应的pendingFiles,并将pendingFiles置空;•将所有分桶状态信息保存到OperatorStateStore当中,以便后续进行持久化;

notifyCheckpointComplete

notifyCheckpointComplete主要做的事情就是根据snapshotState中记录的pendingFilesPerCheckpoint信息,将所有等待Checkpoint成功的pending状态的文件重命名,置为最终的,也是可用的finished状态。

handleRestoredBucketState

现在可以回过头来看下,状态恢复是如何实现,从而保证了exactly-once语义的。状态恢复实现,上文我们已经提到,是在handleRestoredBucketState方法。​​​​​​​

private void handleRestoredBucketState(State<T> restoredState) {    Preconditions.checkNotNull(restoredState);
    for (BucketState<T> bucketState : restoredState.bucketStates.values()) {
        /******* Checkpoint成功时`pendingFiles`应该是空的 *******/        // we can clean all the pending files since they were renamed to        // final files after this checkpoint was successful        // (we re-start from the last **successful** checkpoint)        bucketState.pendingFiles.clear();
        /******* 处理上一次Checkpoint成功时处于`in-progress`状态的文件 *******/        handlePendingInProgressFile(bucketState.currentFile, bucketState.currentFileValidLength);
        // Now that we've restored the bucket to a valid state, reset the current file info        bucketState.currentFile = null;        bucketState.currentFileValidLength = -1;        bucketState.isWriterOpen = false;
        /******* 处理分桶状态的`pendingFilesPerCheckpoint`信息 *******/        handlePendingFilesForPreviousCheckpoints(bucketState.pendingFilesPerCheckpoint);
        bucketState.pendingFilesPerCheckpoint.clear();    }}

可以看到主要是根据Checkpoint成功后持久化下来的分桶状态信息进行处理,in-progress状态的文件以及pendingFilesPerCheckpoint信息。下面来看下对应的handlePendingInProgressFile以及handlePendingFilesForPreviousCheckpoints这两个方法。

handlePendingInProgressFile

处于in-progress状态的文件,在该次Checkpoint成功之后,故障发生之前(这里假设状态恢复是由于发生故障引起),有以下几种可能,

•仍然处于in-progress状态,没有继续写入,文件有效长度仍然是Checkpoint时由snapshotState方法记录下的currentFileValidLength;•仍然处于in-progress状态,发生了写入,文件有效长度大于记录下的currentFileValidLength;•已经关闭并处于pending状态;•已经处于finished状态;

无论处于以上哪种状态,现在需要做的,就是将文件的有效长度恢复到Checkpoint成功时记录的currentFileValidLength。因为恢复后的in-progress状态的文件不再继续写入(产生新文件来写入后续数据),因此先将该文件重命名置为finished状态(已经是finished状态则省略这一步),然后有两种做法,

•如果文件系统支持truncate,则直接将文件truncate到currentFileValidLength这个有效长度即可;•不支持truncate的话,则新建一个{valid_length_prefix}{part_prefix}-{parallel_task_index}-{count}{part_suffix}{valid_length_suffix}文件,将currentFileValidLength写入该文件,后续在读取数据文件时需要先读取这个记录了该文件有效长度的文件以确保数据的有效性,否则可能读取到重复的数据,这样就不能保证exactly-once语义了;

handlePendingFilesForPreviousCheckpoints

这个方法主要是处理分桶状态的pendingFilesPerCheckpoint信息,当Checkpoint成功(snapshotState方法)持久化下来的pendingFilesPerCheckpoint,保存的是等待Checkpoint成功通知的处于pending状态的文件,这些文件在Checkpoint成功之后,故障发生之前,有下面两种可能:

•Checkpoint成功,但是Checkpoint成功通知之前发生了故障。那么此时这些文件应该仍处于pending状态,因为从pengding转为finished状态是在Checkpoint成功通知到才会发生(也是就成功执行了notifyCheckpointComplete方法)。针对这种情况,现在需要将这些文件置为finished状态;•Checkpoint成功,也成功通知到之后才发生了故障。此时这些文件已经处于finished状态,无需额外操作;

这里需要额外说明,Checkpoint是否成功,在发送通知,即调用notifyCheckpointComplete之前就已经确定了。notifyCheckpointComplete即使发生了异常也不会导致Checkpoint失败,参考CheckpointListener的API文档,

This method is called as a notification once a distributed checkpoint has been completed. Note that any exception during this method will not cause the checkpoint to fail any more.

exactly-once语义

经过源码层面的分析可以看到,对exactly-once语义的保证,是通过引入中间状态(in-progress及pending)和最终可用状态(finished)来实现的,是一种两阶段提交(2PC)的方案。当故障发生时,对处于中间状态的数据进行回滚或者提交(initializeState方法)以保证数据的有效性。数据只有流转(Checkpoint成功)到最终状态才是可用的。

结语

本文通过对源码的分析来了解BucketingSink对exactly-once语义的保证。另外,这里记录下一个潜在的问题,就是数据写入的性能问题,当前的设计,每个分桶下只有一个正在写入,即in-progress状态的文件,并且是在invoke方法同步写入,在数据量大的情况下,数据写入的性能一定是不容乐观的。后面可能会有这方面相关的优化,例如异步化,stay tuned o(∩_∩)o

  • 2
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
您好,您的问题是关于Flink中将数据写入HDFS的问题。对于这个问题,您可以使用FlinkHDFS Sink来实现将数据写入HDFS。具体步骤如下: 1. 在pom.xml中添加以下依赖: ``` <dependency> <groupId>org.apache.flink</groupId> <artifactId>flink-hadoop-compatibility_2.12</artifactId> <version>${flink.version}</version> </dependency> ``` 2. 在Flink代码中,使用以下代码创建HDFS Sink: ``` // 创建Hadoop Configuration对象 Configuration conf = new Configuration(); conf.set("fs.defaultFS", "hdfs://localhost:9000"); // 创建HDFS Sink Path outputPath = new Path("hdfs://localhost:9000/path/to/output"); TextOutputFormat<String> outputFormat = new TextOutputFormat<>(outputPath); outputFormat.setWriteMode(WriteMode.OVERWRITE); outputFormat.setOutputDirectoryMode(FileOutputFormat.OutputDirectoryMode.PARONLY); HadoopFileSystem hdfs = new HadoopFileSystem(outputPath.toUri(), conf); HadoopOutputFormat<Text, String> hadoopOutputFormat = new HadoopOutputFormat<>(outputFormat, conf); hadoopOutputFormat.setExternalFileSystem(hdfs); DataStream<String> dataStream = ... // 输入数据流 dataStream.writeUsingOutputFormat(hadoopOutputFormat); ``` 其中,`outputPath`是输出路径,`TextOutputFormat`是输出格式,`WriteMode.OVERWRITE`表示覆盖已有文件,`FileOutputFormat.OutputDirectoryMode.PARONLY`表示只输出到HDFS的partition目录,`HadoopFileSystem`是Hadoop的FileSystem对象,`HadoopOutputFormat`是Hadoop的OutputFormat对象,`dataStream`是输入数据流。 这样,您就可以通过Flink将数据写入HDFS了。希望对您有所帮助。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值