Flink实战(02)-Flink入门案例

  • 相关源码

    https://github.com/Java-Edge/Flink-Tutorial

  • 下载安装

    https://ci.apache.org/projects/flink/flink-docs-release-1.8/tutorials/local_setup.html

brew install apache-flink

1 需求

1.1 Flink开发批处理应用程序

词频统计(word count)

一个文件,统计文件中每个单词出现的次数,分隔符是\t。统计结果我们直接打印在控制台(生产上肯定是Sink到目的地)

2 开发环境

2.1 Maven构建

2.1.1 Requirements

Maven 3.0.4(或更高版本)

Java 8

2.1.2 Create Project

使用以下命令之一创建项目

maven archetype
 $ mvn archetype:generate                               \
      -DarchetypeGroupId=org.apache.flink              \
      -DarchetypeArtifactId=flink-quickstart-java      \
      -DarchetypeVersion=1.8.0

允许为新创建的项目命名。 它将以交互方式询问您groupId,artifactId和包名称。

Run the quickstart script
  $ curl https://flink.apache.org/q/quickstart.sh | bash -s 1.8.0

2.1.3 Inspect Project

工作目录中将有一个新目录。 如果使用curl,则该目录称为quickstart。 否则,它具有artifactId的名称:

使用IDEA打开该项目即可!

示例项目是一个Maven项目,它包含两个类:StreamingJob和BatchJob是DataStream和DataSet程序的基本框架程序。
主要方法是程序的入口点,既可用于IDE测试/执行,也可用于正确部署。
建议将此项目导入IDE以进行开发和测试。 IntelliJ IDEA支持开箱即用的Maven项目。
不建议Eclipse

对于Flink,Java的默认JVM堆可能太小。须手动增加它。在IntelliJ IDEA中,推荐的更改JVM选项的方法来自Help | 编辑自定义VM选项菜单 -Xmx800m

2.1.4 Build Project

如果要构建/打包项目,请转到项目目录并运行

mvn clean package

或者使用插件

您将找到包含应用程序的JAR文件,以及可能已作为依赖项添加到应用程序的连接器和库:

target / <artifact-id>  -  <version> .jar

注意:如果您使用与StreamingJob不同的类作为应用程序的主类/入口点,我们建议您相应地更改pom.xml文件中的mainClass设置。 这样,Flink可以从JAR文件运行应用程序,而无需另外指定主类。

3 公式型编程

  • step 1 : set up the batch execution environment
  • step 2 : Start with getting some data from the environment, like
env.readTextFile(textPath);
  • step 3 : 开发业务逻辑的核心代码
    transform the resulting DataSet using operations,like
.filter()
.flatMap()
.join()
.coGroup()
  • step 4 : execute program

4 Flink批处理应用Java开发之功能实现

在相应目录下建立文本:

测试代码:

成功读取:

4.1 功能拆解

1)读取数据

Hello JavaEdge

2)每一行的数据按照指定的分隔符拆分

Hello
JavaEdge

3)为每一个单词赋上次数为1

(Hello,1)
(JavaEdge,1)

4) 合并操作

groupBy

代码

结果

7 实时处理应用功能实现

package com.imooc.flink.basic;

import org.apache.commons.lang3.StringUtils;
import org.apache.flink.api.common.functions.FilterFunction;
import org.apache.flink.api.common.functions.FlatMapFunction;
import org.apache.flink.api.common.functions.MapFunction;
import org.apache.flink.api.java.functions.KeySelector;
import org.apache.flink.api.java.tuple.Tuple2;
import org.apache.flink.streaming.api.datastream.DataStreamSource;
import org.apache.flink.streaming.api.environment.StreamExecutionEnvironment;
import org.apache.flink.util.Collector;

/**
 * 第一个基于Flink实时处理快速入门案例
 */
public class StreamingWCApp {
    public static void main(String[] args) throws Exception {

        // 创建上下文
        StreamExecutionEnvironment env = StreamExecutionEnvironment.getExecutionEnvironment();

        // 对接数据源的数据
        DataStreamSource<String> source = env.socketTextStream("localhost", 9527);

        // 业务逻辑处理: transformation
        source.flatMap(new FlatMapFunction<String, String>() {
                    @Override
                    public void flatMap(String value, Collector<String> out) throws Exception {
                        String[] words = value.split(",");
                        for (String word : words) {
                            out.collect(word.toLowerCase().trim());
                        }
                    }
                }).filter(new FilterFunction<String>() {
                    @Override
                    public boolean filter(String value) throws Exception {
                        return StringUtils.isNotEmpty(value);
                    }
                }).map(new MapFunction<String, Tuple2<String, Integer>>() {
                    @Override
                    public Tuple2<String, Integer> map(String value) throws Exception {
                        return new Tuple2<>(value, 1);
                    }
                }).keyBy(new KeySelector<Tuple2<String, Integer>, String>() {
                    @Override
                    public String getKey(Tuple2<String, Integer> value) throws Exception {
                        return value.f0;
                    }
                }).sum(1)
                .print();

        env.execute("StreamingWCApp");
    }
}

可能遇到拒绝连接,记得

nc -lk 9527

socket发送数据:

控制台收到结果:

9 Flink实时处理应用代码重构

如何突破端口的限制呢,需重构:

传入参数args

获得参数:

11 开发过程中依赖的注意事项

Configuring Dependencies, Connectors, Libraries:

每个Flink应用程序都依赖于一组Flink库。 至少,应用程序依赖于Flink API。 许多应用程序还依赖于某些连接器库(如Kafka,Cassandra等)。 运行Flink应用程序时(在分布式部署中或在IDE中进行测试),Flink运行时库也必须可用。

评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值