一、flink入门介绍

1.简介

1.1发展

1.2flink是个啥玩意

1.3特性

1.4四大基石

1.5流批处理与spark与flink的区别

2.flink架构体系

2.1两大重要角色介绍

2.2有界与无界数据流

2.3四种编程模型

2.4支持整合的框架

 

2.5三种安装模式介绍

Flink为不同的环境和资源管理工具提供了不同资源管理器

好的,以下是一个简单的 Flink 入门程序。 首先,您需要安装 Flink 并设置环境变量。然后,您需要为您的项目添加 flink 的 Maven 依赖项,如下所示: ```xml <dependency> <groupId>org.apache.flink</groupId> <artifactId>flink-java</artifactId> <version>1.9.1</version> </dependency> ``` 接下来,您可以编写您的 Flink 程序,如下所示: ```java import org.apache.flink.api.common.functions.FlatMapFunction; import org.apache.flink.api.java.DataSet; import org.apache.flink.api.java.ExecutionEnvironment; import org.apache.flink.api.java.tuple.Tuple2; import org.apache.flink.util.Collector; public class FlinkWordCount { public static void main(String[] args) throws Exception { final ExecutionEnvironment env = ExecutionEnvironment.getExecutionEnvironment(); DataSet<String> text = env.fromElements( "Hello World", "Hello Flink", "Hello Flink and Kafka" ); DataSet<Tuple2<String, Integer>> counts = text.flatMap(new FlatMapFunction<String, Tuple2<String, Integer>>() { @Override public void flatMap(String value, Collector<Tuple2<String, Integer>> out) { for (String word : value.split("\\s")) { out.collect(new Tuple2<>(word, 1)); } } }) .groupBy(0) .sum(1); counts.print(); } } ``` 这个程序中,我们首先创建了一个 ExecutionEnvironment 对象,然后使用它来读取一个包含三行字符串的数据集。接下来,我们应用一个 flatMap 函数来将每行字符串划分为单词,并为每个单词创建一个二元组。最后,我们按照单词分组,并计算每个单词出现的次数。 希望这个简单的程序能帮助您入门 Flink
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

我才是真的封不觉

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值