写在最前,本次环境搭建是在Hadoop2.6.1,三节点的基础上完成的。
(关于搭建Hadoop环境,可参考:https://www.cnblogs.com/SysoCjs/p/10835793.html)
说明:
#master,表示在master节点上操作;
#master,#slave1,#slave2,表示在三个节点上都要操作;
一、准备工作 再官网下载合适的flink的tgz压缩包:
http://mirror.bit.edu.cn/apache/flink/
这里下载的是flink-1.6.4-bin-hadoop26-scala_2.11.tgz
然后用scp命令(Git Base或者其他工具也可以)远程分发到CentOS7的master机器指定目录上。
二、解压 #master
cd /usr/local/src/
tar -zxvf flink-1.6.4-bin-hadoop26-scala_2.11.tgz
三、修改配置
#master
cd ./flink-1.6.4/conf/
1、配置JobManager远程地址
vim flink-conf.yaml
修改内容:
jobmanager.rpc.address: master
2、注册master
vim masters
修改内容,这个跟flink-conf-yarm的rest.port配置要一样:
master:8081
3、注册slave
vim slaves
修改内容:
slave1
slave2
四、分发文件
#master
scp -r /usr/local/src/flink-1.6.4 root@slave1:/usr/local/src/
scp -r /usr/local/src/flink-1.6.4 root@slave2:/usr/local/src/
五、验证
#master
1、启动集群
cd /usr/local/src/flink-1.6.4/bin
./start-cluster.sh
master节点:
slave节点:
2、监控页面
http://192.168.112.10:8081