Flink的StreamingFileSink自定义DateTimeBucket
用flink消费kafka内容,通过清洗、转换、过滤后,要sink到parquet文件,需要按照事件的event进行分区生产需要写入的文件夹,如event1的发生时间在2018-03-19,而event2的发生时间在2018-03-20,这就涉及到extract它的eventtime,并生产parquet文件的bucktId,具体代码如下:
/*
* Licensed to the A...
原创
2019-03-20 11:14:46 ·
4030 阅读 ·
1 评论