Flink 程序Sink(数据输出)操作(2)文件


​ 有时候,我们需要将我们Flink程序的计算结果输出到文件中(本地文件/HDFS)文件

​ Flink程序本身便支持这种操作

(1)方式一 writeAsText

核心语法:

dataStreamSource.writeAsText("本地/HDFS的path(必填参数)",覆盖类型(选填参数)).setParallelism(并行度)

注:.setParallelism(并行度) 当并行度为1时,fink会将path视为文件,我们的计算数据会全部写入此文件中,当并行度不设置或者大于1时,Flink会将path视为文件夹

由于我们当前开发服务器未搭建HDFS,所以只能输出到本地了

public static void main(String[] args) throws Exception {
    StreamExecutionEnvironment env = StreamExecutionEnvironment.getExecutionEnvironment();
    env.setRuntimeMode(RuntimeExecutionMode.AUTOMATIC);
    DataStreamSource<Long> dataStreamSource = env.fromSequence(1L, 10L);
    String filePath = "E:\\aa\\flink-learn-1.12\\flink-learn-4-sink\\src\\main\\resources\\file";
    dataStreamSource.writeAsText(filePath);
    env.execute();
}

未指定并行度,程序执行后我们指定的path,变成了一个文件夹,下边出现了多个文件,文件中内容不均匀的分散到了8个文件中

image-20210411203413875

setParallelism(1) 设置后,我们指定的path,变成了一个文件

image-20210411204255606

上边,便完成了Flink数据输出到文件了,但是呢,我们可以看到writeAsText,被打上了删除符,表示当前方法过时了(1.12),我们来看看1.12推荐写法呢!

image-20210411204619823

(2)方式二 StreamingFileSink

StreamingFileSinkFlink1.12中 推荐的数据sink到文件的姿势。

    static String filePath = "E:\\aa\\flink-learn-1.12\\flink-learn-4-sink\\src\\main\\resources\\file";

    public static void main(String[] args) throws Exception {
        StreamExecutionEnvironment env = StreamExecutionEnvironment.getExecutionEnvironment();
        env.setRuntimeMode(RuntimeExecutionMode.AUTOMATIC);
        List<User> users = Arrays.asList(new User("张三", 12),
                new User("李四", 13), new User("王五", 14));
        DataStreamSource<User> dataStreamSource = env.fromCollection(users);
        //writeAsText 已过时,推荐使用StreamingFileSink
        dataStreamSource.addSink(StreamingFileSink.forRowFormat(new Path(filePath),
                new SimpleStringEncoder<User>("UTF-8"))
                .withRollingPolicy(
                        DefaultRollingPolicy.builder()
                                //文件滚动间隔 每隔多久(指定)时间生成一个新文件
                                .withRolloverInterval(TimeUnit.SECONDS.toMillis(5))
                                //数据不活动时间 每隔多久(指定)未来活动数据,则将上一段时间(无数据时间段)也生成一个文件
                                .withInactivityInterval(TimeUnit.MINUTES.toMillis(5))
                    			// 文件最大容量
                                .withMaxPartSize(1024 * 1024 * 1024)
                                .build())
                .build());
        env.execute();
    }

附上一个完整的FileSink配置

          StreamingFileSink<User> sink2 = StreamingFileSink
                .forRowFormat(
                        new Path(filePath),
                        new SimpleStringEncoder<User>("UTF-8"))
                /**
                 * 设置桶分配政策
                 * DateTimeBucketAssigner --默认的桶分配政策,默认基于时间的分配器,每小时产生一个桶,格式如下yyyy-MM-dd--HH
                 * BasePathBucketAssigner :将所有部分文件(part file)存储在基本路径中的分配器(单个全局桶)
                 */
                .withBucketAssigner(new DateTimeBucketAssigner<>())
                /**
                 * 有三种滚动政策
                 *  CheckpointRollingPolicy
                 *  DefaultRollingPolicy
                 *  OnCheckpointRollingPolicy
                 */
                .withRollingPolicy(
                        /**
                         * 滚动策略决定了写出文件的状态变化过程
                         * 1. In-progress :当前文件正在写入中
                         * 2. Pending :当处于 In-progress 状态的文件关闭(closed)了,就变为 Pending 状态
                         * 3. Finished :在成功的 Checkpoint 后,Pending 状态将变为 Finished 状态
                         *
                         * 观察到的现象
                         * 1.会根据本地时间和时区,先创建桶目录
                         * 2.文件名称规则:part-<subtaskIndex>-<partFileIndex>
                         * 3.在macos中默认不显示隐藏文件,需要显示隐藏文件才能看到处于In-progress和Pending状态的文件,因为文件是按照.开头命名的
                         *
                         */
                        DefaultRollingPolicy.builder()
                                //每隔多久(指定)时间生成一个新文件
                                .withRolloverInterval(TimeUnit.SECONDS.toMillis(2))
                                //数据不活动时间 每隔多久(指定)未来活动数据,则将上一段时间(无数据时间段)也生成一个文件
                                .withInactivityInterval(TimeUnit.SECONDS.toMillis(1))
                                //每个文件大小
                                .withMaxPartSize(1024 * 1024 * 1024)
                                .build())
                /**
                 * 设置sink的前缀和后缀
                 * 文件的头和文件扩展名
                 */
                .withOutputFileConfig(OutputFileConfig
                        .builder()
                        .withPartPrefix("lei")
                        .withPartSuffix(".txt")
                        .build())
                .build();

image-20210411210821299

  • 2
    点赞
  • 11
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
您好!对于使用Flink SQL将数据流写入文件系统,您可以通过以下步骤来实现: 1. 导入所需的依赖项 首先,您需要在您的项目中添加Flink SQL和所选文件系统的相关依赖项。例如,如果您想将数据写入HDFS文件系统,您需要添加相关的Hadoop依赖项。 2. 创建一个Flink StreamTableEnvironment 通过创建一个Flink StreamTableEnvironment,您可以使用Flink SQL来处理和操作数据。 ```java StreamExecutionEnvironment env = StreamExecutionEnvironment.getExecutionEnvironment(); StreamTableEnvironment tableEnv = StreamTableEnvironment.create(env); ``` 3. 定义输入表和输出表 您需要定义一个输入表和一个输出表,以便在Flink SQL中引用它们。 ```java tableEnv.executeSql("CREATE TABLE inputTable (field1 INT, field2 STRING) WITH (...)"); tableEnv.executeSql("CREATE TABLE outputTable (field1 INT, field2 STRING) WITH (...)"); ``` 在上述代码中,您需要根据实际情况替换`WITH (...)`部分,并根据您的输入数据源和输出目标进行配置。 4. 将数据流写入输出表 使用Flink SQL的INSERT INTO语句,您可以将数据从输入表写入输出表。 ```java tableEnv.executeSql("INSERT INTO outputTable SELECT * FROM inputTable"); ``` 在上述代码中,我们使用SELECT *从输入表中选择所有字段,并将其插入输出表中。 5. 执行Flink程序 最后,使用`env.execute()`来触发Flink程序的执行。 ```java env.execute(); ``` 这将启动Flink作业并开始将数据流写入文件系统。 请注意,上述步骤是一个简单的示例,您需要根据实际情况进行适当的配置和调整。另外,根据您选择的文件系统,可能还需要进行额外的配置和设置。 希望以上信息对您有所帮助!如有任何进一步的问题,请随时提问。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值