python 读取kafka 写hive_Flink 读取Kafka写入Hive

在流式处理系统中,Flink和kafka的结合很是经典。我们可以通过Flink消费Kafka数据,层层处理后,丢到Kafka另一个Topic,下游再处理该Topic的数据。而对于OLAP查询需求,我们往往需要将数据输出到 Hive。一般的,我们使用Parquet格式来存储(Spark对parquet的支持较好)。

Flink提供了bucket sink的模式将流式数据写入到文件中,在官方给的demo中,代码如下

import org.apache.flink.api.common.serialization.SimpleStringEncoder;

import org.apache.flink.core.fs.Path;

import org.apache.flink.streaming.api.functions.sink.filesystem.StreamingFileSink;

DataStream input = ...;

final StreamingFileSink sink = StreamingFileSink

.forRowFormat(new Path(outputPath), new SimpleStringEncoder<>("UTF-8"))

.build();

input.addSink(sink);

为了使用Parquet格式,我们还需要转换代码:

StreamingFileSink streamingFileSink = StreamingFileSink.

forBulkFormat(new Path(outputPath), ParquetAvroWriters.forReflectRecord(LogTest.class))

.withBucketAssigner(bucketAssigner)

.build();

在测试过程中,会发现目录创建了,但文件全为空且处于inprogress状态。经过多番搜索未解决该问题。最后在官方文档中发现了这么一句:

IMPORTANT: Bulk-encoding formats can only be combined with the

`OnCheckpointRollingPolicy`, which rolls the in-progress part

file on every checkpoint.

这说明Flink将一直缓存从Flink消费出来的数据,只有当Checkpoint 触发的时候,才把数据刷新到目标目录--即我们定义的parquet路径中。

加上启用CheckPoint之后,重新执行程序,可以发现文件成功写入了。

env.enableCheckpointing(3000);

其他思考:消费kafka输出到Parquet这一个过程,Flink能否保证一致性语义?

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值