Flink之Standalone—独立集群模式(开发测试环境使用)

执行流程

在这里插入图片描述

  1. client客户端提交任务给JobManager
  2. JobManage负责给执行该任务分配计算所需资源
  3. JobManager分发任务给TaskManager执行
  4. TaskManager定期会向JobManager汇报状态信息,并在计算完成后返回计算结果

安装

这里安装的是flink软件版本:1.10.0

  1. 集群规划
  • 服务器: node1(Master + Slave): JobManager + TaskManager
  • 服务器: node2(Slave): TaskManager
  • 服务器: node3(Slave): TaskManager
  1. 上传并解压
  • 上传
  • 解压
    tar -zxvf flink-1.10.0-bin-scala_2.11.tgz -C ../server
  • 创建软链接
    ln -s flink-1.10.0/ flink
  1. 修改flink-conf.yaml
    vim /export/server/flink/conf/flink-conf.yaml
jobmanager.rpc.address: node1
  1. 修改masters
    vim /export/server/flink/conf/masters
node1:8081
  1. 修改slaves
    vim /export/server/flink/conf/workers
node1
node2
node3
  1. 添加HADOOP_CONF_DIR环境变量
    vim /etc/profile
export HADOOP_CONF_DIR=/export/server/hadoop/etc/hadoop
  1. 分发到其他机器
 scp -r /export/server/flink node2:/export/server/flink
 scp -r /export/server/flink node3:/export/server/flink
 scp  /etc/profile node2:/etc/profile
 scp  /etc/profile node3:/etc/profile
  1. source
    在所有机器上执行:
source /etc/profile
  1. 启动集群
启动集群:
 /export/server/flink/bin/start-cluster.sh
启动历史服务器:
/export/server/flink/bin/historyserver.sh start
  1. WebUI
    http://node1:8081/#/overview

测试

运行官方测试案例:

  • 需要开启hdfs和flink集群
  • 在hdfs的/wordcount/input目录下创建一个words.txt文件存储单词
/export/server/flink/bin/flink run /export/server/flink/examples/batch/WordCount.jar \
--input hdfs://node1:8020/wordcount/input/words.txt \
--output hdfs://node1:8020/wordcount/output/result.txt  \
--parallelism 2
  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

大数据老人家i

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值