Java&Flink数据处理学习-Flink结合Linux中的netcat模拟实现Flink处理实时数据

前言

借助Linux的nc(netcat)程序作为产生数据的数据源
flink程序的作用是实时统计每个词语出现的次数

效果展示

在这里插入图片描述

上面的图片中展示了【数据1】出现了【2】次
【A】出现了【1】次,flink实时统计的效果

功能实现

环境准备

在Linux系统中启动netcat,命令【nc -lk 7777】,7777为端口号
在这里插入图片描述
我使用的是contos
开放 7777 端口 不开放端口程序无法获取连接
1、开启防火墙
systemctl start firewalld
2、开放指定端口
firewall-cmd --zone=public --add-port=7777/tcp --permanent
命令含义:
–zone #作用域
–add-port=7777/tcp #添加端口,格式为:端口/通讯协议
–permanent #永久生效,没有此参数重启后失效
3、重启防火墙
firewall-cmd --reload

Java&flink实时读取实时数据

pom文件

<project xmlns="http://maven.apache.org/POM/4.0.0" xmlns:xsi="http://www.w3.org/2001/XMLSchema-instance"
         xsi:schemaLocation="http://maven.apache.org/POM/4.0.0 http://maven.apache.org/xsd/maven-4.0.0.xsd">
    <modelVersion>4.0.0</modelVersion>

    <groupId>com.bygones</groupId>
    <artifactId>learn-flink</artifactId>
    <version>1.0.0-SNAPSHOT</version>

    <dependencies>
        <dependency>
            <groupId>org.apache.flink</groupId>
            <artifactId>flink-java</artifactId>
            <version>1.10.1</version>
        </dependency>

        <dependency>
            <groupId>org.apache.flink</groupId>
            <artifactId>flink-streaming-java_2.12</artifactId>
            <version>1.10.1</version>
        </dependency>
    </dependencies>
</project>

java 程序

import org.apache.flink.api.common.functions.FlatMapFunction;
import org.apache.flink.api.java.tuple.Tuple2;
import org.apache.flink.api.java.utils.ParameterTool;
import org.apache.flink.streaming.api.datastream.DataStream;
import org.apache.flink.streaming.api.datastream.SingleOutputStreamOperator;
import org.apache.flink.streaming.api.environment.StreamExecutionEnvironment;
import org.apache.flink.util.Collector;

/***
 * @author bygones
 * <p>Flink读取实时数据</p>
 */
public class FlinkReadRealtimeData {
    public static void main(String[] args) throws Exception {
        // 创建流处理执行环境
        StreamExecutionEnvironment executionEnvironment = StreamExecutionEnvironment.getExecutionEnvironment();
        // 设置并行度,默认是电脑CPU核数
        executionEnvironment.setParallelism(8);

        // main 方法是可以在程序启动时传递参数的
        // Flink提供了工具可以从程序启动参数中提取配置项
        ParameterTool parameterTool = ParameterTool.fromArgs(args);
        String hostname = parameterTool.get("hostname");
        int port = parameterTool.getInt("port");

        // TODO 可以加入参数的验证

        DataStream<String> inputDataStream  =  executionEnvironment.socketTextStream(hostname,port);

        // 基于数据流对数据进行处理
        SingleOutputStreamOperator<Tuple2<String, Integer>> resultStream = inputDataStream.flatMap(new StreamWordCount.MyFlatMapper())
                .keyBy(0)
                .sum(1);

        resultStream.print();

        // 上面的代码只是定义的对数据的处理流程

        // 执行任务, 数据来一条处理一条
        executionEnvironment.execute();
    }

    // FlatMapFunction<输入参数的类型, 输出参数的类型>
    // Tuple2<String,Integer> 二元组数据类型,例如(word , 1);
    public static class MyFlatMapper implements FlatMapFunction<String,Tuple2<String,Integer>> {

        // 定义对数据的处理规则

        /***
         * <p>
         *     知识点描述:
         *     Collector 收集器, 将需要返回的数据收集起来
         * </p>
         * @param value 输入的数据
         * @param collector 收集器, 将需要返回的数据收集起来
         * @throws Exception
         */
        public void flatMap(String value, Collector<Tuple2<String, Integer>> collector) throws Exception {
            // 按照空格分词
            String[] words = value.split(" ");
            // 遍历所有word,包成二元组
            for (String word: words) {
                collector.collect(new Tuple2<String, Integer>(word , 1));
            }
        }
    }
}

程序的启动配置 run-》edit configurations…
在这里插入图片描述
图中配置了实时数据源(nc)的IP和port,配置完成后启动程序即可
注意: 先启动nc在启动程序

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值