Flink的集群的搭建

本文详细介绍了Flink的四种部署方式:Local、Standalone、Standalone-HA高可用和Yarn部署。针对不同场景,如开发、测试和生产环境,提供了详细的配置和操作步骤,包括配置文件修改、集群启动、任务提交等。
摘要由CSDN通过智能技术生成

部署方式分类

1.Local 本地部署
2. Standalone 使用Flink自带的资源调度平台进行任务的部署
3. Standalone-HA高可用的部署方式
4. Yarn 部署

1. Local 本地部署

  • 应用场景:开发环境
  • 部署步骤:
  1. 设置 JDK运行环境
  2. 配置 SSH 免密登录
  3. 下载并解压缩 Flink-1.13.1 到 /export/server
  4. 修改配置文件
    jobmanager.rpc.address: node1
  5. 开启flink环境查看web UI监控
    开启集群
    [root@node1 bin]# start-cluster.sh
    #访问监控页面 webUI
    http://node1:8081

- Standalone 使用Flink自带的资源调度平台进行任务的部署

  • 应用场景:开发、测试使用
  • 安装部署: flink/conf/flink-conf.yaml 基础配置
# jobManager 的IP地址
jobmanager.rpc.address: node1
# JobManager 的端口号
jobmanager.rpc.port: 6123
# JobManager JVM heap 内存大小
jobmanager.memory.process.size: 1600m
# TaskManager JVM heap 内存大小
taskmanager.memory.process.size: 1728m
# 每个 TaskManager 提供的任务 slots 数量大小
taskmanager.numberOfTaskSlots: 2
#是否进行预分配内存,默认不进行预分配,这样在我们不使用flink集群时候不会占用集群资源
taskmanager.memory.preallocate: false
# 程序默认并行计算的个数
parallelism.default: 1
#JobManager的Web界面的端口(默认:8081)
jobmanager.web.port: 8081
  • 配置 worker文件
    • 将每个从节点 hostname 保存,一行一个
    • 将flink的程序及配置拷贝到其他的节点
  • scp flink 复制到其他节点
scp /export/server/flink root@node2:/export/server
scp /export/server/flink root@node3:/export/server
  • 配置环境变量
      vim /etc/profile
      FLINK_HOME=/export/server/flink
      PATH=$PATH:$FLINK_HOME/bin
     # 立即生效
      source /etc/profile
  • 开启Flink集群
    start-cluster.sh

  • 查看当前的 Flink集群的状态,webUI
    node1:8081
    在这里插入图片描述

  • 执行 wordcount 任务执行,run word-count 案例

    1. 在 hdfs 上上传文件
    2. flink run 执行这个任务并加载文件
  • 执行 wordcount 命令

         flink run /export/server/flink/examples/batch/WordCount.jar -p 1 --input hdfs://node1:8020/words.txt```
    

参数解释
flink run 提交执行任务 类似于 spark-submit
-p 1 并行度设置为1
–input 当前输入的参数
/export/server/flink/examples/batch/WordCount.jar jar包位置
在这里插入图片描述

3.Standalone-HA高可用的部署方式

使用场景:开发、测试使用
部署步骤:和 Standalone 部署方式几乎一样,区别:

  • 需要将每一台节点的 flink-conf.yaml 中 HA 高可用的zookeeper设置并将zookeeper集群地址设置好

配置 flink-conf.yaml 在 notepad++ 中
在这里插入图片描述
具体配置的参数

node1
#==============================================================================
# Common
#==============================================================================

# The external address of the host on which the JobManager runs and can be
# reached by the TaskManagers and any clients which want to connect. This setting
# is only used in Standalone mode and may be overwritten on the JobManager side
# by specifying the --host <hostname> parameter of the bin/jobmanager.sh executable.
# In high availability mode, if you use the bin/start-cluster.sh script and setup
# the conf/masters file, this will be taken care of automatically. Yarn/Mesos
### 如何搭建Flink集群 #### 使用 Docker 搭建 Flink 集群 为了简化操作流程,可以采用 `docker-compose` 来快速构建 Flink 集群环境。通过编写合适的 `docker-compose.yml` 文件定义所需的服务组件及其依赖关系,能够实现一键启动整个集群的功能[^1]。 ```yaml version: '2' services: jobmanager: image: flink:latest ports: - "8081:8081" command: jobmanager environment: - JOB_MANAGER_RPC_ADDRESS=jobmanager taskmanager: image: flink:latest depends_on: - jobmanager command: taskmanager environment: - JOB_MANAGER_RPC_ADDRESS=jobmanager ``` 此配置文件创建了一个由 JobManager 和 TaskManager 组成的基础版 Flink 集群实例,并暴露 Web UI 端口以便于管理和监控。 #### 本地模式部署 对于开发和初步测试场景来说,在单机上以本地模式运行可能是更为便捷的选择。这仅需完成以下几个简单动作: - 下载官方提供的稳定版本二进制分发包; - 解压缩至指定目录; - 执行位于 bin 子目录下的 start-cluster.sh 脚本来激活服务进程; 上述过程完成后即成功建立起了一个简易型的伪分布式架构用于实验性质的任务提交与执行[^2]。 #### 自定义配置项调整 当涉及到生产级别的应用时,则有必要深入研究更多高级别的参数设定来优化性能表现以及满足特定业务需求。例如,针对 HA (High Availability) 场景可引入 Zookeeper 实现 Master 的选举机制,确保系统的可靠性和稳定性[^4]。 - 修改 conf/flink-conf.yaml 中的相关条目加入 zookeeper.quorum 参数指向外部已有的 ZK 实例地址列表; - 同样在此处补充 ha.storageDir 设置持久化元数据存储路径从而支持故障恢复能力。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值