hadoop-flink完全分布式集群搭建

本文详细介绍了如何在CentOS 7环境下搭建Hadoop 2.7.7和Flink 1.10.2的Standalone集群,包括软件要求、配置文件修改、环境变量设置、启动流程,以及如何启用High Availability模式。
摘要由CSDN通过智能技术生成

本次采用的系统为centos7
hadoop版本为2.7.7
flink版本为1.10.2 链接:https://pan.baidu.com/s/1E4Gm5Rla-f4mZ5XB7wvlyg
提取码:qwer
关于hadoop搭建请访问:Hadoop完全分布式集群搭建教程(一)

Flink 有三种部署模式,分别是 Local、Standalone Cluster 和 Yarn Cluster。

一、Local模式

对于 Local 模式来说,JobManager 和 TaskManager 会公用一个 JVM 来完成 Workload。如果要验证一个简单的应用,Local 模式是最方便的。实际应用中大多使用 Standalone 或者 Yarn Cluster,而local模式只是将安装包解压启动(./bin/start-local.sh)即可,在这里不在演示。

二、Standalone 模式

1、软件要求

  • java版本必须为1.8.X或更高版本

2、解压

我们同样将文件解压在根目录下的opt中

#在opt目录下解压
 tar zxvf flink-1.10.2-bin-scala_2.11.tgz

在这里插入图片描述

3、修改配置文件

进入conf文件夹下,修改masters、slaves、flink-conf.yaml文件

1. 修改slaves文件

```
#修改slaves文件,保存退出
slave1
slave2
```

在这里插入图片描述
2. 修改masters文件

#修改masters文件
master:8081 #注意我这里的8082的原因是因为与spark端口冲突,默认为8081

在这里插入图片描述
3. 修改flink-conf.yaml文件

这里需要注意不要删除前面的空格

#修改flink-conf.yaml文件
taskmanager.numberOfTaskSlots:2
jobmanager.rpc.address: master

在这里插入图片描述在这里插入图片描述

4、拷贝到各节点

我这里有俩个节点分别为
slave1
slave2

scp -r /opt/flink-1.10.2 slave1:/opt/
scp -r /opt/flink-1.10.2 slave1:/opt/

5、配置环境变量

  1. 修改profile文件

    #进入profile文件
    vi  /etc/profile
    #添加以下路径,根据自己的路径添加
    export FLINK_HOME=/opt/flink-1.10.2
    export PATH=$PATH:$FLINK_HOME/bin
    
  2. 发送给其他节点

    scp /etc/profile slave1:/etc/
    scp /etc/profile slave2:/etc/
    
  3. 刷新文件

每个节点都需要刷新文件
source /etc/profile

6、启动flink

#进入flink-1.10.2目录下控制台输入
[root@localhost flink-1.10.2]# bin/start-cluster.sh
Starting cluster.
Starting standalonesession daemon on host localhost.localdomain.
Starting taskexecutor daemon on host slave1.
Starting taskexecutor daemon on host slave2.

jps查看进程
master节点:
在这里插入图片描述
slave1节点:
在这里插入图片描述
slave2节点:
在这里插入图片描述## 7、webUI查看

我这里默认的8082端口,因为8081端口被spark占用

http://master:8081

在这里插入图片描述

7、启动HA

  1. 修改配置文件
    修改flink-conf.yaml,HA模式下,jobmanager不需要指定,在master file中配置,由zookeeper选出leader与standby。
vi flink-conf.yaml

在flink-conf.yaml修改并添加以下代码

#jobmanager.rpc.address: node21

在这里插入图片描述

high-availability:zookeeper #指定高可用模式(必须)

在这里插入图片描述

high-availability.zookeeper.quorum:node21:2181,node22:2181,node23:2181 #ZooKeeper仲裁是ZooKeeper服务器的复制组,它提供分布式协调服务(必须)

在这里插入图片描述

high-availability.storageDir:hdfs:///flink/ha/ #JobManager元数据保存在文件系统storageDir中,只有指向此状态的指针存储在ZooKeeper中(必须)

在这里插入图片描述

high-availability.zookeeper.path.root:/flink #根ZooKeeper节点,在该节点下放置所有集群节点(推荐)
high-availability.cluster-id:/flinkCluster #自定义集群(推荐)

在这里插入图片描述

state.backend: filesystem

在这里插入图片描述

state.checkpoints.dir: hdfs:///flink/checkpoints

在这里插入图片描述

state.savepoints.dir: hdfs:///flink/checkpoints

在这里插入图片描述

  1. 修改conf/zoo.cfg
#修改zoo.cfg文件
[root@localhost conf]# vi zoo.cfg 
#添加以下内容
server.1=master:2888:3888
server.1=slave1:2888:3888
server.1=slave2:2888:3888

在这里插入图片描述

  1. 修改conf/masters
#进入masters
[root@localhost conf]# vi masters
#添加以下内容
master:8081
slave1:8081
  1. 分发给其他节点

利用scp 将文件夹传送给其他节点

  1. 启动
#在根目录下启动
[root@localhost flink-1.10.2]# bin/start-cluster.sh 
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

周粥粥ya

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值