Pyflink 本地开发与测试

1、环境准备

首先,准备 python 虚拟环境。2020年11月3日时的 pyflink 的最高版本为 1.11.2,请开发者按照实际需要或者线上环境要求来指定 pyflink 版本。

wget https://ci.apache.org/projects/flink/flink-docs-release-1.11/downloads/setup-pyflink-virtual-env.sh
sh setup-pyflink-virtual-env.sh 1.11.2
source venv/bin/activate  # 激活虚拟环境

setup-pyflink-virtual-env.sh 脚本会自动安装 miniconda 并在当前目录下创建虚拟环境文件夹 venv,然后自动安装 apache-flink 模块后压缩虚拟环境为 venv.zip。

2、脚本开发

Pyflink 脚本开发请认真参考 官方文档v1.11

Pyflink 正在快速发展的阶段,每次版本更新都会增加很多新的特性,同时会取消旧特性,因此务必确保开发时所参考的文档与本地 pyflink 版本一致。

3、Jar 包依赖

Flink 中的 Jar 包是 connector 的扩展,允许在 flink 脚本中连接和使用各种数据存储工具,包括:

  • 文件系统,如 HDFS,S3
  • 数据库,如 MySQL,MongDB
  • 消息队列,如 Kafka

Pyflink 默认支持有限的几种 jar 包,如有特殊需要(例如以 json 格式来消费 kafka 里的数据),需要手动指定脚本依赖的 jar 包所在的路径。

已知有 3 种方式来指定 jar 包依赖。

3.1、方法1:在 pyflink 脚本中指定

在脚本中完成 TableEnvironment 的初始化后,添加下面的脚本以指定 jar 包路径(多个 jar 包的路径用 ; 隔开)。

table_env.get_config().get_configuration().set_string("pipeline.jars", 'xxxx.jar;xxxxx.jar')

注意,本地环境的 jar 包路径与线上环境的 jar 包路径可能不同,因此每次提交到线上时还需要修改脚本中的路径为对应的路径。

3.2、方法2:在 pyflink 模块的 lib 目录下。

找到 pyflink 模块的安装路径,以及对应的 lib 目录。

import pyflink
import os

print(os.path.join(os.path.dirname(pyflink.__file__), 'lib'))

然后使用 cp 命令复制 jar 包到 lib 目录下即可。

这种方法一次运行,一劳永逸,比较适合本地开发。

3.3、方法3:flink run -j

这种方式不适用于本地开发,而是用于提交到集群上时指定 jar 包的路径,但为了较为系统地介绍 jar 包依赖的指定方式,故在此介绍。

命令如下:

flink run -m yarn-cluster \
  -j flink-sql-connector-kafka_2.11-1.11.2.jar \
  -pyarch venv.zip \
  -pyexec venv.zip/venv/bin/python3 \
  -py main.py

通过 -j 参数来指定一个 jar 包路径,多个 jar 包则使用多个 -j 。

4、本地测试

Flink 支持使用 local-singleJVM 模式 来进行本地测试,即只需简单的执行 Python xxxx.py 命令,pyflink 就会默认启动一个 local-singleJVM 的 flink 环境来执行作业。

在运行过程中,可以另起终端,输入 jps 来查看 java 进程。

  • 0
    点赞
  • 4
    收藏
    觉得还不错? 一键收藏
  • 6
    评论
PyFlink 提供了多种不同的开发模板,可供开发人员使用。以下是其中的一些模板: 1. Batch job 模板: ```python from pyflink.dataset import ExecutionEnvironment exec_env = ExecutionEnvironment.get_execution_environment() input_path = "path/to/input" output_path = "path/to/output" data = exec_env.read_text_file(input_path) result = data \ .map(lambda x: x.split(",")) \ .filter(lambda x: len(x) == 2) \ .map(lambda x: (x[0], int(x[1]))) \ .group_by(0) \ .sum(1) result.write_as_csv(output_path, "\n", ",") exec_env.execute("Batch Job Example") ``` 2. Streaming job 模板: ```python from pyflink.datastream import StreamExecutionEnvironment from pyflink.datastream import TimeCharacteristic env = StreamExecutionEnvironment.get_execution_environment() env.set_stream_time_characteristic(TimeCharacteristic.EventTime) input_path = "path/to/input" data = env.read_text_file(input_path) data = data \ .map(lambda x: x.split(",")) \ .filter(lambda x: len(x) == 2) \ .map(lambda x: (x[0], int(x[1]))) \ .assign_timestamps_and_watermarks(MyTimestampExtractor()) result = data \ .key_by(lambda x: x[0]) \ .time_window(Time.seconds(10)) \ .reduce(lambda x, y: (x[0], x[1] + y[1])) result.print() env.execute("Streaming Job Example") ``` 3. Table job 模板: ```python from pyflink.table import TableEnvironment t_env = TableEnvironment.get_batch_environment() input_path = "path/to/input" output_path = "path/to/output" t_env \ .read_csv(input_path, ['word', 'count'], field_delim=',') \ .where("count > 10") \ .group_by("word") \ .select("word, count(1) as count") \ .write_csv(output_path, field_delim=',') t_env.execute("Table Job Example") ``` 以上是 PyFlink 中的三种常用开发模板,可以根据实际情况进行调整和扩展。
评论 6
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值