扫一扫加入大数据公众号和技术交流群,了解更多大数据技术,还有免费资料等你哦
简介
在日常开发中读取hdfs文件是很频繁的操作,并且在这个过程中我们可能会有如下需求:
- 读取某个目录下的所有的文件,也就是递归读取hdfs的目录
- 按条件读取hdfs,也就是正则表达式读取目录下的文件
看到这些需求,我们可能想到spark都支持的不错,Flink支持的怎么样呢?本篇文章详细介绍一下Flink如何实现,递归,正则表达式等方式读取hdfs的目录。
Flink递归读取hdfs上多路径文件
比如,读取如下面所示data目录下日期命名的文件夹,如果直接使用env.readTextFile("//127.0.0.1:90
本文介绍了Flink如何实现递归和正则表达式读取HDFS目录下的文件。针对读取需求,包括递归读取多路径文件及按条件(正则表达式)筛选文件。通过配置参数启用递归读取,以及使用Flink自带的FileInputFormat结合自定义过滤器,或者利用Hadoop API和自定义DataSet输入实现正则匹配。文章提供了具体案例、代码示例及解决报错的方法。

订阅专栏 解锁全文
679

被折叠的 条评论
为什么被折叠?



