flink安装

1.下载flink

https://flink.apache.org/zh/downloads.html     当前最新版 Apache Flink 1.10.0 for Scala 2.11 (ascsha512)

2.上传至服务器集群、解压

workapp]# tar -zxvf flink-1.10.0-bin-scala_2.11.tgz

3.配置

workapp]# vim flink-1.10.0/conf/flink-conf.yaml
# 配置主节点主机名
jobmanager.rpc.address: jdddata-processing-02

# The RPC port where the JobManager is reachable.

jobmanager.rpc.port: 6123


# The heap size for the JobManager JVM

jobmanager.heap.size: 1024m


# The heap size for the TaskManager JVM

taskmanager.heap.size: 2048m


# The number of task slots that each TaskManager offers. Each slot runs one parallel pipeline.
# 每台机器能并行运行多少个slot, 一核可以运行一个slot
taskmanager.numberOfTaskSlots: 2

# The parallelism used for programs that did not specify and other parallelism.
# 整个集群最大可以的并行度, slave节点数 * 节点CPU核数
parallelism.default: 10

修改 conf/master 和配置文件的主节点主机名一样,当前选择本机02节点

jdddata-processing-02:8081

修改 conf/slaves  相当于列出所有的slave节点,注意slave的配置文件中jobmanager.rpc.address都一样是当前的主节点

jdddata-processing-03
jdddata-processing-04
jdddata-processing-05
jdddata-processing-06
jdddata-processing-07

4.同步至各个节点

workapp]# rsync -avzP flink -e 'ssh -p 62222' root@jdddata-processing-07:/data/workapp/flink

5.启动/停止

只需要在主节点执行  (启动/停止)

bin/start-cluster.sh
bin/stop-cluster.sh

可能出现的异常:

第一点:设置HADOOP_CONF_DIR环境变量

export HADOOP_CONF_DIR="/etc/hadoop/conf"

第二点:当前ssh默认端口不是22,修改FLINK_SSH_OPTS这个环境变量

export FLINK_SSH_OPTS="-p 12345"

6.登入

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值