Flink本地开发(例如在IDEA/Eclipse中)模式启动WEB-UI

前言

我们在IDE中编写Flink代码,我们希望在IEDA中运行程序便能够查看到Web-UI,从而快速的了解Flink程序的运行情况(而无需自己手动安装Flink,以及打包提交任务)

一、添加依赖

本示例是基于Flink1.12进行演示的

<dependency>
    <groupId>org.apache.flink</groupId>
    <artifactId>flink-runtime-web_2.12</artifactId>
    <version>1.12.2</version>
    <scope>compile</scope>
</dependency>

二、代码中启用本地WEB-UI

// 定义一个配置 import org.apache.flink.configuration.Configuration;包下
Configuration configuration = new Configuration();

// 指定本地WEB-UI端口号
configuration.setInteger(RestOptions.PORT, 8082);

// 执行环境使用当前配置
StreamExecutionEnvironment env = StreamExecutionEnvironment.getExecutionEnvironment(configuration);

完整示例

image-20210714082532795

三、IDEA运行Flink JOB;本地WEB-UI查看

我们于浏览器中输入localhost:8082便会看到如下情况的 Flink-WEB-UI

查看

image-20210714082758564

Task详情

image-20210714083453739

Task详情解释

自定义source 是implements SourceFunction 其并行度只能为1

image-20210714083621380

Window 、Apply 、Sink并行度均为4

keyBy算子将DataStream转换成一个KeyedStream;通过countWindow,最终变为 WindowedStream

最终形成两个算子,一个算子并行度为1,一个算子并行度为4,总共5个subTask

image-20210714083757519

注意点:

  • 当前flink-web-ui 仅是当前主类(main 类/flink -job)有关,其余主类如需使用,必须重复上边代码操作
  • 这种模式TaskManger有且只会有一个,总taskSlot根据代码中的并行度动态增加,例如我现在代码中并行度为4则WEB-UI中会显示total Task Slot4,不设置就会默认使用当前机构cpu核心数数量的并行度
  • ex:不设置并行度 (显示total Task Slot8)

image-20210714084417005

  • 3
    点赞
  • 11
    收藏
    觉得还不错? 一键收藏
  • 5
    评论
好的,您可以按照以下的方式来编写docker-compose.yml文件: ``` version: '3.7' services: jobmanager: image: flink:1.17.0 command: jobmanager ports: - "8081:8081" taskmanager: image: flink:1.17.0 command: taskmanager depends_on: - jobmanager links: - jobmanager:jobmanager environment: - JOB_MANAGER_RPC_ADDRESS=jobmanager - FLINK_TASK_MANAGER_MEMORY_PROCESS_SIZE=1024m elasticsearch: image: docker.elastic.co/elasticsearch/elasticsearch:7.10.2 environment: - discovery.type=single-node ports: - "9200:9200" mysql: image: mysql:8.0 environment: - MYSQL_ROOT_PASSWORD=<your_password> - MYSQL_USER=<your_user> - MYSQL_PASSWORD=<your_password> - MYSQL_DATABASE=<your_database> ports: - "3306:3306" postgres: image: postgres:13.1 environment: - POSTGRES_USER=<your_user> - POSTGRES_PASSWORD=<your_password> - POSTGRES_DB=<your_database> ports: - "5432:5432" flink-job: image: flink:1.17.0 volumes: - ./flink-conf.yaml:/opt/flink/conf/flink-conf.yaml - ./lib/flink-sql-connector-elasticsearch7-3.0.1-1.17.jar:/opt/flink/lib/flink-sql-connector-elasticsearch7-3.0.1-1.17.jar - ./lib/flink-sql-connector-mysql-cdc-2.3.0.jar:/opt/flink/lib/flink-sql-connector-mysql-cdc-2.3.0.jar - ./lib/flink-sql-connector-postgres-cdc-2.3.0.jar:/opt/flink/lib/flink-sql-connector-postgres-cdc-2.3.0.jar command: jobmanager depends_on: - jobmanager - elasticsearch - mysql - postgres links: - elasticsearch:elasticsearch - mysql:mysql - postgres:postgres environment: - JOB_MANAGER_RPC_ADDRESS=jobmanager - FLINK_TM_HEAP_SIZE=1024m - FLINK_PROPERTIES= - FLINK_ENV_JAVA_OPTS= - FLINK_ENV_JAVA_TOOL_OPTIONS= - FLINK_CONF_DIR=/opt/flink/conf - FLINK_LIB_DIR=/opt/flink/lib - FLINK_PLUGINS_DIR=/opt/flink/plugins - FLINK_OPT_DIR=/opt/flink/opt - FLINK_LOG_DIR=/opt/flink/log - FLINK_HOME=/opt/flink volumes: - ./job.jar:/opt/flink/job.jar - ./flink-conf.yaml:/opt/flink/conf/flink-conf.yaml ``` 其需要注意的是: 1. 在 `flink-job` 服务,我们使用了 `volumes` 来挂载 `flink-conf.yaml` 和三个依赖的jar包到容器的 `/opt/flink/conf` 和 `/opt/flink/lib` 目录。 2. 我们在 `flink-job` 服务的环境变量设置了 `FLINK_PROPERTIES`,因为 Flink启动时会读取这个环境变量的配置信息。 3. 我们在 `flink-job` 服务的环境变量设置了 `FLINK_LIB_DIR`,这是因为 Flink启动时会从这个目录加载依赖的jar包。 4. 我们在 `flink-job` 服务的环境变量设置了 `FLINK_CONF_DIR`,这是因为 Flink启动时会读取这个目录的配置文件。 5. 我们在 `flink-job` 服务的环境变量设置了 `FLINK_HOME`,这是因为 Flink启动时需要知道它的安装路径。 上述的docker-compose.yml文件可以满足您的要求,在启动容器后,您可以使用以下的命令来进入到flink-job容器: ``` docker-compose run flink-job /bin/bash ``` 然后,您可以在容器运行Flink任务了。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 5
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值