背景
需要读取HDFS上变化的日志文件,对每一行进行处理,就是类似于Linux中tail -f实现的功能。
看了看好像Spark和Flink都没有类似的支持,于是就用Flink自定义了Source实现了这个功能。
实现思路
维持一个当前读取位置的偏移量,然后每隔几秒去看下文件的大小是否大于当前偏移量。如果最新文件大小大于当前偏移量就读取数据,并将当前偏移量设置为最新的文件大小;反之,不做任何操作。
以下的代码,还没有把当前读取位置存储到状态中,如果重启会重头开始读。
实现代码
自定义Source
package com.upupfeng.source;
import org.apache.flink.configuration.Configuration;
import org.apache.flink.core.fs.FSDataInputStream;
import org.apache.flink.core.fs.FileStatus;
import org.apache.flink.core.fs.FileSystem;
import org.apache.flink.core.fs.Path;
import org.apache.flink.streaming.api.functions.source.RichSourceFunction;
import java.io.BufferedReader;
import java.io.IOException;
import java.io.InputStreamReader;
/**
* 自定义Source实现对HDFS上的文件进行"tail -f"的类似操作
* @author mawf
*/
public class TailHdfsFileSource extends RichSourceFunction<String>

该博客介绍了如何在Flink中自定义Source来实现对HDFS文件的tail -f功能,通过维持读取偏移量并定期检查文件大小,实现实时处理新增日志行。目前代码尚不支持状态存储,重启后会从头开始读取。
最低0.47元/天 解锁文章
4444

被折叠的 条评论
为什么被折叠?



